c++ - 16 位 float MPI_Reduce?

标签 c++ parallel-processing mpi precision

我有一个分布式应用程序,它使用 MPI_Reduce() 进行某些通信。在精度方面,我们使用 16 位 float (半精度)得到完全准确的结果。

要加速通信(减少数据移动量),有没有办法在 16 位 float 上调用 MPI_Reduce()


(我查看了 MPI 文档,没有看到任何关于 16 位 float 的信息。)

最佳答案

MPI 标准在其内部数据类型中仅定义了 32 位 (MPI_FLOAT) 或 64 位 (MPI_DOUBLE) float 。

但是,您始终可以创建自己的 MPI_Datatype 和您自己的自定义归约操作。下面的代码给出了一些关于如何执行此操作的粗略概念。由于不清楚您使用的是哪种 16 位浮点实现,我将简单地将类型称为 float16_t,将加法操作称为 fp16_add()

// define custom reduce operation
void my_fp16_sum(void* invec, void* inoutvec, int *len,
              MPI_Datatype *datatype) {
    // cast invec and inoutvec to your float16 type
    float16_t* in = (float16_t)invec;
    float16_t* inout = (float16_t)inoutvec;
    for (int i = 0; i < *len; ++i) {
        // sum your 16 bit floats
        *inout = fp16_add(*in, *inout);
    }
}

// ...

//  in your code:

// create 2-byte datatype (send raw, un-interpreted bytes)
MPI_Datatype mpi_type_float16;
MPI_Type_contiguous(2, MPI_BYTE, &mpi_type_float16);
MPI_Type_commit(&mpi_type_float16);

// create user op (pass function pointer to your user function)
MPI_Op mpi_fp16sum;
MPI_Op_create(&my_fp16_sum, 1, &mpi_fp16sum);

// call MPI_Reduce using your custom reduction operation
MPI_Reduce(&fp16_val, &fp16_result, 1, mpi_type_float16, mpi_fp16sum, 0, MPI_COMM_WORLD);

// clean up (freeing of the custom MPI_Op and MPI_Datatype)
MPI_Type_free(&mpi_type_float16);
MPI_Op_free(&mpi_fp16sum);

关于c++ - 16 位 float MPI_Reduce?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/29638251/

相关文章:

c++ - 选择和移动事件在 QGraphicsScene 中不起作用

c++ - glibc 的 '-lmcheck' 选项和多线程

c++ - 如何在 visual studio 中创建 Windows GUI?

arrays - CUDA中的一维最小卷积

c - MPI-- 无限发送和接收

python - Cython 无法识别 c++11 命令

.net - 超越单台计算机的 .NET 并行模式

performance - 可伸缩性和加速之间的区别?

c++ - MPI 实时物理

c - MPI_Allgather 产生不一致的结果