c++ - MPI发送和接收的通信成本

标签 c++ parallel-processing mpi

我是 MPI 新手,想要测量两个节点之间 MPI_Send 和 MPI_Recv 的通信成本。为此,我编写了以下代码:

 /*==============================================================
 * print_elapsed (prints timing statistics)
 *==============================================================*/
 void print_elapsed(const char* desc, struct timeval* start, struct timeval* end, int numiterations) {

  struct timeval elapsed;
  /* calculate elapsed time */
  if(start->tv_usec > end->tv_usec) {

    end->tv_usec += 1000000;
    end->tv_sec--;
  }
  elapsed.tv_usec = end->tv_usec - start->tv_usec;
  elapsed.tv_sec  = end->tv_sec  - start->tv_sec;

  printf("\n%s total elapsed time = %ld (usec)\n",
    desc, (elapsed.tv_sec*1000000 + elapsed.tv_usec)/numiterations );
}


int main(int argc, char **argv) {

  int nprocs, nElements; /* command line args */

  int my_id;

  long double* buffer, *rec_buffer;         
 /* gettimeofday stuff */
  struct timeval start, end;         /* gettimeofday stuff */
  struct timezone tzp;

  MPI_Status status;              /* Status variable for MPI operations */

  MPI_Init(&argc, &argv);
  MPI_Comm_rank(MPI_COMM_WORLD, &my_id); /* Getting the ID for this process */

  /*---------------------------------------------------------
   *  Read Command Line
   *  - check usage and parse args
   *---------------------------------------------------------*/

  if(argc < 2) {

    if(my_id == 0)
      printf("Usage: %s [nElements]\n\n", argv[0]);

    MPI_Finalize();
    exit(1);
  }

  nElements = atoi(argv[1]);
  int numiterations = 64;
  MPI_Comm_size(MPI_COMM_WORLD, &nprocs); /* Get number of processors */

  if(my_id == 0)
    printf("\nExecuting %s: numElements=%d \n",
            argv[0], nElements);


  buffer = (long double *) malloc(sizeof(long double)*nElements);
  rec_buffer = (long double *) malloc(sizeof(long double)*nElements);

  if(buffer == NULL) {
    printf("Processor %d - unable to malloc()\n", my_id);
    MPI_Finalize();
    exit(1);
  }


  MPI_Barrier(MPI_COMM_WORLD);

  if(my_id == 1)
    gettimeofday(&start, &tzp);


  for(int i = 0 ; i < numiterations ; ++i)
  {
    if(my_id == 0)
      MPI_Send(buffer, nElements, MPI_LONG, 1, 0, MPI_COMM_WORLD);

    if(my_id == 1)
      MPI_Recv(rec_buffer, nElements, MPI_LONG, 0, 0, MPI_COMM_WORLD, &status);
  }


  if(my_id == 1) {
    gettimeofday(&end,&tzp);
  }

  MPI_Barrier(MPI_COMM_WORLD);
  if(my_id == 1) {
    print_elapsed("Summation", &start, &end, numiterations);
  }

  free(buffer);

  MPI_Finalize();

  return 0;
} /* main() */

我重复发送和接收numiteration次,但我没有关于初始化成本和实际通信时间的信息。我想知道是否有更好的方法或工具来更详细地衡量沟通成本。

最佳答案

如果您想要所描述的详细程度,您可能必须深入了解 MPI 库本身的实现。您测量的是通信对应用程序的影响。然而,根据您的基础设施,通信可能涉及更多内容。有些网络可以在不涉及应用程序的情况下取得进展,有些 MPI 库也可以使用线程异步地在消息上取得进展。

如何衡量这些事情将取决于您的系统和上述限制。如果您关心的只是您的应用程序在通信调用上花费了多少时间,那么您或多或少已经完成了这一点。您可以使用其他跟踪工具来完成类似的事情(HPCtoolkit 是我过去使用过的一个)。

如果您想获得有关幕后情况的更多详细信息,您必须深入了解您的实现并开始内部检测(假设您使用的是开源实现,例如 MPICH 或 Open MPI) 。这是一个更加复杂的过程,并且机制会因一种实现而异。

关于c++ - MPI发送和接收的通信成本,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/29948157/

相关文章:

c++ - SIMD XOR 运算不如 Integer XOR 有效?

parallel-processing - NVidia 是否支持 OpenCL SPIR?

c++ - 是否有针对 CUDA-GPU 或 MPI-CPU+CUDA-GPU 的基准测试?

arrays - MPI 广播二维阵列

multiprocessing - 将节点进程与 MPI 和 FORTRAN 一起分类

C++。为什么我不能使用特征类实现接口(interface)?

c++ - 阻塞套接字返回 EAGAIN

c++ - 如何将虚拟 com 端口写入 TCP 驱动程序?

c++ - OpenCv:使用 Yolov3

java - JVM 是否具有检测并行化机会的能力?