c++ - Linux AIO : Poor Scaling

标签 c++ linux unix ext4 aio

我正在编写一个使用 Linux 异步 I/O 系统调用的库,并且想知道为什么 io_submit 函数在 ext4 文件系统上表现不佳。如果可能,我该怎么做才能让 io_submit 不阻止大 IO 请求大小?我已经做了以下事情(如 here 所述):

  • 使用 O_DIRECT
  • 将 IO 缓冲区与 512 字节边界对齐。
  • 将缓冲区大小设置为页面大小的倍数。

为了观察内核在 io_submit 中花费的时间,我运行了一个测试,其中我使用 dd/dev 创建了一个 1 Gb 的测试文件/urandom,并反复删除系统缓存(sync; echo 1 >/proc/sys/vm/drop_caches)并读取越来越大的文件部分。在每次迭代中,我打印了 io_submit 所花费的时间以及等待读取请求完成所花费的时间。我在运行 Arch Linux 的 x86-64 系统上运行了以下实验,内核版本为 3.11。该机器具有 SSD 和 Core i7 CPU。第一张图绘制了读取的页面数与等待 io_submit 完成所花费的时间。第二个图表显示等待读取请求完成所花费的时间。时间以秒为单位。

enter image description here

enter image description here

为了比较,我创建了一个类似的测试,它通过 pread 使用同步 IO。结果如下:

enter image description here

似乎异步 IO 按预期工作,请求大小约为 20,000 个页面。之后,io_submit 阻塞。这些观察导致以下问题:

  • 为什么io_submit的执行时间不是常数?
  • 是什么导致了这种不良的缩放行为?
  • 是否需要将 ext4 文件系统上的所有读取请求拆分为多个请求,每个请求的大小小于 20,000 页?
  • 20,000 这个“神奇”值从何而来?如果我在另一个 Linux 系统上运行我的程序,我如何才能确定要使用的最大 IO 请求大小而不会遇到不良的扩展行为?

用于测试异步 IO 的代码如下。如果您认为其他来源列表相关,我可以添加它们,但我尝试仅发布我认为可能相关的详细信息。

#include <cstddef>
#include <cstdint>
#include <cstring>
#include <chrono>
#include <iostream>
#include <memory>
#include <fcntl.h>
#include <stdio.h>
#include <time.h>
#include <unistd.h>
// For `__NR_*` system call definitions.
#include <sys/syscall.h>
#include <linux/aio_abi.h>

static int
io_setup(unsigned n, aio_context_t* c)
{
    return syscall(__NR_io_setup, n, c);
}

static int
io_destroy(aio_context_t c)
{
    return syscall(__NR_io_destroy, c);
}

static int
io_submit(aio_context_t c, long n, iocb** b)
{
    return syscall(__NR_io_submit, c, n, b);
}

static int
io_getevents(aio_context_t c, long min, long max, io_event* e, timespec* t)
{
    return syscall(__NR_io_getevents, c, min, max, e, t);
}

int main(int argc, char** argv)
{
    using namespace std::chrono;
    const auto n = 4096 * size_t(std::atoi(argv[1]));

    // Initialize the file descriptor. If O_DIRECT is not used, the kernel
    // will block on `io_submit` until the job finishes, because non-direct
    // IO via the `aio` interface is not implemented (to my knowledge).
    auto fd = ::open("dat/test.dat", O_RDONLY | O_DIRECT | O_NOATIME);
    if (fd < 0) {
        ::perror("Error opening file");
        return EXIT_FAILURE;
    }

    char* p;
    auto r = ::posix_memalign((void**)&p, 512, n);
    if (r != 0) {
        std::cerr << "posix_memalign failed." << std::endl;
        return EXIT_FAILURE;
    }
    auto del = [](char* p) { std::free(p); };
    std::unique_ptr<char[], decltype(del)> buf{p, del};

    // Initialize the IO context.
    aio_context_t c{0};
    r = io_setup(4, &c);
    if (r < 0) {
        ::perror("Error invoking io_setup");
        return EXIT_FAILURE;
    }

    // Setup I/O control block.
    iocb b;
    std::memset(&b, 0, sizeof(b));
    b.aio_fildes = fd;
    b.aio_lio_opcode = IOCB_CMD_PREAD;

    // Command-specific options for `pread`.
    b.aio_buf = (uint64_t)buf.get();
    b.aio_offset = 0;
    b.aio_nbytes = n;
    iocb* bs[1] = {&b};

    auto t1 = high_resolution_clock::now();
    auto r = io_submit(c, 1, bs);
    if (r != 1) {
        if (r == -1) {
            ::perror("Error invoking io_submit");
        }
        else {
            std::cerr << "Could not submit request." << std::endl;
        }
        return EXIT_FAILURE;
    }
    auto t2 = high_resolution_clock::now();
    auto count = duration_cast<duration<double>>(t2 - t1).count();
    // Print the wait time.
    std::cout << count << " ";

    io_event e[1];
    t1 = high_resolution_clock::now();
    r = io_getevents(c, 1, 1, e, NULL);
    t2 = high_resolution_clock::now();
    count = duration_cast<duration<double>>(t2 - t1).count();
    // Print the read time.
    std::cout << count << std::endl;

    r = io_destroy(c);
    if (r < 0) {
        ::perror("Error invoking io_destroy");
        return EXIT_FAILURE;
    }
}

最佳答案

我的理解是,Linux 上很少(如果有的话)文件系统完全支持 AIO。一些文件系统操作仍然阻塞,有时 io_submit() 会通过文件系统操作间接调用这种阻塞调用。

我的进一步理解是,内核 AIO 的主要用户主要关心 AIO 在原始 block 设备(即没有文件系统)上真正异步。本质上是数据库供应商。

Here's来自 linux-aio 邮件列表的相关帖子。 (head 的线程)

一个可能有用的建议:

Add more requests via /sys/block/xxx/queue/nr_requests and the problem will get better.

关于c++ - Linux AIO : Poor Scaling,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/20973754/

相关文章:

c++ - 在单独分配的堆栈上运行函数

linux - 如何使用 Gnuplot 4.6 和 AIX 7.2 修复 "Could not find/open font when opening font arial..."和模糊的 png?

linux - 在 main 之前调用系统调用

unix - 如何通过键入脚本名称而不是 sh [scriptname] 来运行 shell 脚本?

unix - 在 unix 命令行上比较文件

c++ - 将 vector 与包含不可复制数据类型的类一起使用

c++ - CFileDialog 在 Windows XP 下保留目录句柄

c++ - 资源泄漏 : fExclfile

linux - Linux脚本的源代码和./执行之间的区别

linux - 如何加密 Unix shell 脚本