linux - 扇区大小不是 4096 的 xfs 文件系统导致英特尔 NVMe 驱动器性能下降

标签 linux ext4 pci-e solid-state-drive xfs

我在 Linux(Ubuntu 14.04)上使用 NVMe 卡。 当使用默认扇区大小 (512) 的 xfs 文件系统格式化时,我发现 Intel NVMe 卡的性能有所下降。或任何其他小于 4096 的扇区大小。

在实验中,我用默认选项的 xfs 文件系统格式化了卡。我尝试在页面大小为 64k 的 arm64 平台上运行 block 大小为 64k 的 fio。 这是使用的命令 fio --rw=randread --bs=64k --ioengine=libaio --iodepth=8 --direct=1 --group_reporting --name=Write_64k_1 --numjobs=1 --runtime=120 --filename =new --size=20G

我只能得到以下值

运行状态组 0(所有作业): 读取:io=20480MB,aggrb=281670KB/s,minb=281670KB/s,maxb=281670KB/s,mint=744454msec,maxt=74454msec 磁盘统计信息(读/写): nvme0n1: ios=326821/8, merge=0/0, ticks=582640/0, in_queue=582370, util=99.93%

我试过格式化如下:

mkfs.xfs -f -s size=4096 /dev/nvme0n1

然后值是:

运行状态组 0(所有作业): 阅读:io=20480MB,aggrb=781149KB/s,minb=781149KB/s,maxb=781149KB/s,mint=266 847 毫秒,最大值 = 26847 毫秒 磁盘统计信息(读/写): nvme0n1:ios=326748/7,merge=0/0,ticks=200270/0,in_queue=200350,util=99.51%

我发现与

一起使用时性能没有下降
  • 4k 页面大小
  • 任何小于 64k 的 fio block 大小
  • 使用默认配置的 ext4 fs

可能是什么问题?这是对齐问题吗?我在这里错过了什么?任何帮助表示赞赏

最佳答案

问题是您的 SSD 的 native 扇区大小为 4K。因此,您的文件系统的 block 大小应设置为匹配,以便读取和写入在扇区边界上对齐。否则,您将拥有跨越 2 个扇区的 block ,因此需要 2 个扇区读取才能返回 1 个 block (而不是 1 个读取)。

如果您有英特尔固态硬盘,较新的固态硬盘具有可变扇区大小,您可以使用其英特尔固态硬盘数据中心工具进行设置。但老实说,无论如何 4096 仍然可能是驱动器的真实扇区大小,使用它并设置文件系统以匹配您将获得最一致的性能。

在 Linux 上的 ZFS 上,4K block 的设置是 ashift=12。

关于linux - 扇区大小不是 4096 的 xfs 文件系统导致英特尔 NVMe 驱动器性能下降,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35875867/

相关文章:

c++ - FBIOPUT_VSCREENINFO 和模式行

linux - 新的自定义 centos 启动盘,参数来自官方谷歌云设置

Linux 驱动程序开发 - 我会严重损害我的系统吗?

c - 将 UART 数据重定向到 pcie 端口

embedded-linux - 设备树中的 PCI 节点

linux - 是否可以写入在同一个 PCIe 插槽上使用不同 PCIe channel 的多个设备?

linux - 在 linux devicetree (arm) 中定义 3 个由相同 GPIO 引脚控制的调节器

c - JBD2 上下文中的 BJ_Shadow 是什么?

linux - 没有 fsync() 的 rename() 安全吗?

linux 内核路径遍历。查找慢的解释