博客
关于我
FastDB 磁盘和无盘模式
阅读量:717 次
发布时间:2019-03-21

本文共 1432 字,大约阅读时间需要 4 分钟。

FastDB的高效性能与磁盘模式的实现机制解析

在进行数据库性能测试时,FastDB展现出了优越的性能表现,尤其在批量提交事务时,其速度甚至比SQLite高出3-10倍。然而,这种优势在逐条提交事务时却会急剧下降,主要原因在于磁盘模式下的频繁IO操作,性能暴跌几倍。这是FastDB设计时需要权衡的重要问题。

磁盘模式的实现原理

file.cpp文件中,我们可以观察到FastDB在磁盘模式下的核心实现逻辑。FastDB在磁盘模式下首先尝试打开主目录下的文件*.fdb,使用标准的文件操作函数:

fd = ::open(name, open_flags, 0666);

如果文件打开失败(fd < 0),系统会记录错误信息并返回错误代码:

int orig_errno = errno;dbTrace("failed opening file '%s' - fd - %d, errno - %d\n", name, fd, orig_errno);return orig_errno;

接下来,FastDB使用mmap()函数将数据库以文件映射到内存中:

mmapAddr = (char*)mmap(NULL, mmapSize, (flags & read_only) ? PROT_READ : PROT_READ|PROT_WRITE, mmap_attr, fd, 0);

如果mmap()失败(mmapAddr == (char*)-1),系统同样会记录错误信息并关闭文件:

status = errno;mmapAddr = NULL;if (fd >= 0) {    ::close(fd);}return status;

需要注意的是,mmap()映射的有名文件机制是一种高效的数据同步方式,能够确保数据库文件与内存数据保持一致。

无盘模式的实现引擎

FastDB默认采用磁盘模式,但通过修改config.h文件并重新编译,可以切换至无盘模式。无盘模式的核心思想是完全放置数据库在内存中,避免与物理磁盘进行频繁IO操作。在sync.cpp中,系统通过以下步骤实现了无盘模式:

  • 首先打开一个临时文件:
  • int fd = ::open(fileName, O_RDWR|O_CREAT, ACCESS_PERMISSION_MASK);
    1. 检查文件打开结果:
    2. if (fd < 0) {    if (fileName != name) {        delete[] fileName;    }    return false;}
      1. 创建共享内存块:
      2. shm = shmget(key, DOALIGN(size, 4096), IPC_CREAT|ACCESS_PERMISSION_MASK);
        1. 检查共享内存的映射结果:
        2. if (shm < 0) {    return false;}
          1. 将共享内存挂载到本进程:
          2. ptr = (char*)shmat(shm, NULL, 0);

            这种设计充分利用了内核_VM Thanh's机制,确保所有数据库操作均在内存完成,从而极大提升了性能表现。

            结论

            综上所述,FastDB通过磁盘模式提供数据持久性保证,但在高频IO场景下性能不足。为解决这一问题,同系开发者提出了两种解决方案:定时备份和无盘模式。无盘模式通过完全依赖内存操作,显著提升了数据库性能表现,是在性能与持久性之间做出的优化选择。

    转载地址:http://tybrz.baihongyu.com/

    你可能感兴趣的文章
    NIFI1.21.0_java.net.SocketException:_Too many open files 打开的文件太多_实际操作---大数据之Nifi工作笔记0051
    查看>>
    NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
    查看>>
    NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_插入时如果目标表中已存在该数据则自动改为更新数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0058
    查看>>
    NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_更新时如果目标表中不存在记录就改为插入数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0059
    查看>>
    NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
    查看>>
    NIFI1.21.0_Postgresql和Mysql同时指定库_指定多表_全量同步到Mysql数据库以及Hbase数据库中---大数据之Nifi工作笔记0060
    查看>>
    NIFI1.21.0最新版本安装_连接phoenix_单机版_Https登录_什么都没改换了最新版本的NIFI可以连接了_气人_实现插入数据到Hbase_实际操作---大数据之Nifi工作笔记0050
    查看>>
    NIFI1.21.0最新版本安装_配置使用HTTP登录_默认是用HTTPS登录的_Https登录需要输入用户名密码_HTTP不需要---大数据之Nifi工作笔记0051
    查看>>
    NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
    查看>>
    NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增加修改实时同步_使用JsonPath及自定义Python脚本_03---大数据之Nifi工作笔记0055
    查看>>
    NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_插入修改删除增量数据实时同步_通过分页解决变更记录过大问题_01----大数据之Nifi工作笔记0053
    查看>>
    NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表或全表增量同步_实现指定整库同步_或指定数据表同步配置_04---大数据之Nifi工作笔记0056
    查看>>
    NIFI1.23.2_最新版_性能优化通用_技巧积累_使用NIFI表达式过滤表_随时更新---大数据之Nifi工作笔记0063
    查看>>
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现update数据实时同步_实际操作05---大数据之Nifi工作笔记0044
    查看>>
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
    查看>>
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
    查看>>
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_实现数据插入数据到目标数据库_实际操作03---大数据之Nifi工作笔记0042
    查看>>
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_生成插入Sql语句_实际操作02---大数据之Nifi工作笔记0041
    查看>>
    NIFI从MySql中离线读取数据再导入到MySql中_03_来吧用NIFI实现_数据分页获取功能---大数据之Nifi工作笔记0038
    查看>>
    NIFI从MySql中离线读取数据再导入到MySql中_不带分页处理_01_QueryDatabaseTable获取数据_原0036---大数据之Nifi工作笔记0064
    查看>>