caching - DMA/Microblaze 直接访问用户空间页面物理地址后读取错误数据(内核分散/聚集)

标签 caching kernel fpga dma pci

我想要实现的目标是使用户空间中的内存块可以通过 PCIe 直接由 FPGA 板中的 DMA 内核访问(不受内核的任何干扰)。

为此,我在用户空间中使用 posix_memalign() 在用户空间中分配一 block 内存(4M),然后通过写入操作将其虚拟地址传递给内核。

在内核中,我使用下面的代码来获取用户空间内存块的所有页面,以便创建分散/聚集列表并获取每个页面的所有物理地址:

static ssize_t  posix_memory_write(struct file *file, const char __user *buffer, size_t count, loff_t *off)
{

    int repeat;
    int temporary_point;

    int buffer_mapped_pages;
    int sg_table_value;

    int buffer_dma_buffers = 0;

    u32 *u32_posix_buffer = NULL;

    int buffer_entries = count / PAGE_SIZE;

    struct page **buffer_page_array;

    dma_addr_t *dma_address_list_pointer;
    int *dma_length_list_pointer;

    struct sg_table *dma_sg_table;
    struct scatterlist *scatterlist_pointer;

    if(posix_buffer != NULL)
    {
        printk(KERN_ALERT "%s [DEBUG MESSAGE-POSIX MEMORY WRITE] Buffer's Virtual Address is 0x%016lX\n", driver_name, (unsigned long)posix_buffer);


        u32_posix_buffer = (u32 *)posix_buffer;


        for(repeat = 0; repeat < 16; repeat++)
        {
            printk(KERN_ALERT "%s [DEBUG MESSAGE-POSIX MEMORY WRITE] Buffer Data: %d\n", driver_name, u32_posix_buffer[repeat]);
        }

        buffer_page_array = kmalloc(sizeof(struct page *) * buffer_entries, GFP_KERNEL);

        down_read(&current->mm->mmap_sem);

        buffer_mapped_pages = get_user_pages(current, current->mm, (unsigned long)(posix_buffer), buffer_entries, 1, 0, buffer_page_array, NULL);


        printk(KERN_ALERT "%s [DEBUG MESSAGE-POSIX MEMORY WRITE] Buffer Mapped Pages %d\n", driver_name, buffer_mapped_pages);


        for(repeat = 0; repeat < buffer_mapped_pages; repeat++) 
        {
            if (!PageReserved(buffer_page_array[repeat]))
            {
                SetPageDirty(buffer_page_array[repeat]);
            }
            page_cache_release(buffer_page_array[repeat]);

        }

        up_read(&current->mm->mmap_sem);

        dma_sg_table = kmalloc(sizeof(struct sg_table), GFP_KERNEL);


        sg_table_value = sg_alloc_table(dma_sg_table, buffer_mapped_pages, GFP_KERNEL);


        printk(KERN_ALERT "%s [DEBUG MESSAGE-POSIX MEMORY WRITE] Scatter/Gather Table Return Value %d\n", driver_name, sg_table_value);

        scatterlist_pointer = dma_sg_table->sgl;    

        for(repeat = 0; repeat < buffer_mapped_pages; repeat++)
        {
            sg_set_page(scatterlist_pointer, buffer_page_array[repeat], PAGE_SIZE, 0);
            scatterlist_pointer = sg_next(scatterlist_pointer);
        }


        scatterlist_pointer = dma_sg_table->sgl;

        buffer_dma_buffers = dma_map_sg(&dev->dev, scatterlist_pointer, buffer_mapped_pages, DMA_BIDIRECTIONAL);


        printk(KERN_ALERT "%s [DEBUG MESSAGE-POSIX MEMORY WRITE] DMA Buffers are: %d\n", driver_name, buffer_dma_buffers);

        dma_address_list_pointer = (dma_addr_t *)kmalloc(sizeof(dma_addr_t) * buffer_dma_buffers, GFP_KERNEL);
        dma_length_list_pointer = (int *)kmalloc(sizeof(int) * buffer_dma_buffers, GFP_KERNEL);


        for(repeat = 0; repeat < buffer_dma_buffers; repeat++)
        {
            dma_address_list_pointer[repeat] = sg_dma_address(scatterlist_pointer);
            dma_length_list_pointer[repeat] = sg_dma_len(scatterlist_pointer);


            scatterlist_pointer = sg_next(scatterlist_pointer);

            printk(KERN_ALERT "%s [DEBUG MESSAGE-POSIX MEMORY WRITE] Buffer Page %d DMA Physical Address is: 0x%016lX [SIZE %d Bytes]\n", driver_name, repeat, (unsigned long)dma_address_list_pointer[repeat], dma_length_list_pointer[repeat]);

        }   


        scatterlist_pointer = dma_sg_table->sgl;

        //pci_dma_sync_sg_for_device(dev, scatterlist_pointer, buffer_dma_buffers, DMA_TO_DEVICE);


        for(repeat = 0; repeat < buffer_mapped_pages; repeat++) 
        {
            writel(dma_address_list_pointer[repeat], (u32 *)bar1_address_virtual + repeat);
        }

        temporary_point = repeat;

        for(repeat = 0; repeat < buffer_mapped_pages; repeat++) 
        {
            writel(dma_length_list_pointer[repeat], (u32 *)bar1_address_virtual + repeat + temporary_point);
        }       

        write_remote_register(bar0_address_virtual, BAR0_OFFSET_GPIO_NOTIFIER + ZERO_OFFSET, (u32) (OPERATION_SET_DMA_ADDRESS_LENGTH_ARRAY_SIZE | buffer_dma_buffers));

}

使用 4M 用户空间内存块,我似乎正确获得了 1024 个页面中每个页面的所有物理地址(页面大小为 4096 字节)。

然后我将这些地址写入 FPGA 中的 BRAM 存储器。

DMA 内核和 Microblaze 处理器都使用这些地址通过 PCIe 读取分配前一个内存块的用户空间应用程序已写入的数据。

但由于某种原因,DMA/Microblaze 的读取操作不正确。

存储在用户空间内存块中的数据是连续递增的值(11、12、13、14、15、16...、234、235 等)。

每次我从页面的物理地址读取时,我似乎都会得到一段这样连续的值,这让我相信我得到了正确的数据。

问题是我访问的所有页面都获得完全相同的连续递增值。

我的情况可能出了什么问题?这可能是缓存一致性问题吗?

最佳答案

我维护一个名为 Portalmem 的驱动程序,它使用户空间能够通过 PCIe 和 AXI 与 FPGA 共享内存。 (https://github.com/cambridgehackers/connectal/blob/master/drivers/portalmem/portalmem.c)

portalmem 驱动程序在内核中分配内存并提供 dma_buf 文件描述符,以便应用程序可以对其进行 mmap()。

pcie 和 zynq 驱动程序使用 dma_buf 文件描述符来访问分散收集列表,以便将 dma 地址传递到 FPGA。

我注意到的一件事是使用 sg_dma_len 而不是 sg->length。如果我没记错的话,sg_dma_len 至少在我们的一项配置上为 0,但 sg->length 具有正确的值。我们的驱动程序使用 sg->length 而不是 sg_dma_len()。

由于 Portalmem 对硬件一无所知,因此您可以将其与 FPGA 驱动程序结合使用。

另一件事对调试非常有帮助,那就是跟踪发出的 PCIe 请求和返回的响应,这样您就可以准确地看到正在读取或写入的物理地址。为此,您可以使用集成逻辑分析仪。我添加了一个缓冲区,用于捕获 2K 最近的 PCIe TLP(具有周期级时间戳的事务级数据包)。这对于调试功能和性能非常有帮助。

关于caching - DMA/Microblaze 直接访问用户空间页面物理地址后读取错误数据(内核分散/聚集),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/32082397/

相关文章:

linux - 如何确定编译内核目标文件所针对的 Linux 内核版本?

c - 是否有任何用于 Windows 驱动程序开发的开源 C 库(不是 c++)?

fpga - Chisel3 REPL peek 值是正确的,但期望在测试中失败

php - 我们如何在用户使用javascript登录时强制删除缓存

java - 设计AppServer面试讨论

caching - redis持久化是否阻塞读写请求

caching - 在 Maven/JSP/RequireJS Webapp 中对 Assets 进行指纹识别?

c - 我对内存管理和分页的想法是否正确?

arrays - 数组元素之和 VHDL

verilog - VERILOG 中的随机 0、1、-1