c - fwrite 消耗所有 MemFree,fflush 不工作?

标签 c linux file disk

我们有一个连接到非常快的 10TB raid 0 jbod 的数据捕获系统。

我们以大约 1.25 GB/s 的速度接收到 4 MiB 数据缓冲区,这些缓冲区被写入一个使用 fopen 打开的顺序文件,分配 10 GiB,然后使用 fwrite 写入。每 10 GiB 我们 fflush 然后 fallocate 得到另外 10 GiB。最后,在使用 fclose 完成捕获后将其关闭。

问题是,当捕获正在进行时,我们可以看到/proc/meminfo MemFree 下降,而 Cached 上升 - 即 fflush 似乎什么都不做。这一直持续到我们在系统中有大约 200 MiB MemFree,现在数据速率变得非常尖锐,这导致我们的捕获失败。

当我们调用 fflush 时,我们希望峰值会下降到 10 GiB 左右,但它似乎什么也没做。在我们调用 fclose 之前,文件不会被刷新。

这种行为有什么原因吗?使用 setvbuf(hFile, NULL, _IONBF, 0) 似乎也没有任何效果。

最佳答案

当您看到可用内存下降时,这是您的操作系统正在写入其缓冲区缓存(本质上是所有可用内存)。此外,stdio 的 fwrite() 是自行缓冲的。因此,存在一些资源争用。当您的操作系统达到可用内存的上限时,这种资源争用会导致写入速度变慢和内存利用率高。瓶颈导致您错过数据捕获。

由于您正在管理自己的缓冲区,因此可以使用 write()O_DIRECT 来避免所有这些缓冲。

关于c - fwrite 消耗所有 MemFree,fflush 不工作?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41750030/

相关文章:

c - 用于收集参数的 Bison 语法

c - 让函数选择最大数量的给定函数

c - 以编程方式查询 USB 闪存驱动器卷标

linux - 根据字段拆分文件并保存在使用根名称创建的子目录中

javascript - 如何使用强大的 Node js获取文件扩展名?

c - 是否所有的C编译器都严格遵循运算符优先顺序

c - 在C中链接多个头文件

html - 以HTML格式生成Shell脚本输出并发送邮件

visual-studio - Visual Studio输出文件权限?

java - 如何让 ImageIO.write 根据需要创建文件夹路径