c - OpenMPI 阻塞接收数组无法正常工作(在某些情况下程序不会停止)

标签 c mpi distributed-computing

我认为这是一个非常奇怪的问题: 我有这段代码: 它应该接收一个大小块和宽度的二维矩阵。 矩阵分配使用:

int **alloc2d(int n, int m) {
    int i = 0;
    int *data = malloc(n * m * sizeof(int));
    int **array = malloc(n * sizeof(int *));
    for (i = 0; i < n; i++) {
        array[i] = &(data[i * m]);
    }
    return array;
}

所以它是一个连续的内存块。

我有以下代码:

MPI_Status st;
int worker;
       for(i = 1; i < size; i++) {
        MPI_Recv(&(recmat[0][0]), chunk*width, MPI_INT, MPI_ANY_SOURCE, 1,
                                 MPI_COMM_WORLD, &st);

        worker = st.MPI_SOURCE;
      /*  for(k = worker * chunk; k < (worker + 1) * chunk; k++){
            for(j = 0; j < width; j++) {
                mat[k][j] = recmat[k - worker * chunk][j];
                }
            }*/
        }

如果代码是这样的,一切都会停止并且运行良好。 如果我取消注释该区域:

for(k = worker * chunk; k < (worker + 1) * chunk; k++){
                for(j = 0; j < width; j++) {
                    mat[k][j] = recmat[k - worker * chunk][j];
                    }
                }

运行此代码的线程不会停止,对此我找不到合乎逻辑的解释。也许有人可以看到错误或问题。谢谢!

recmat分配和 block 计算:

int **recmat;
recmat = alloc2d(chunk,width);
int chunk;
chunk = height / size;

最佳答案

抱歉,评论太长了:

您发布的代码没问题;例如,在它周围放置足够的代码以使其运行会产生正确的结果(如下)。所以问题不在你认为的地方。

如果您看到代码锁定在您认为不应该锁定的位置,这通常表示发生了奇怪的内存错误或其他问题。您最好通过调试器运行它,或者通过类似 valgrind 的工具来检查内存问题。

#include <stdio.h>
#include <stdlib.h>
#include <mpi.h>

int **alloc2d(int n, int m) {
    int i = 0;
    int *data = malloc(n * m * sizeof(int));
    int **array = malloc(n * sizeof(int *));
    for (i = 0; i < n; i++) {
        array[i] = &(data[i * m]);
    }
    return array;
}

int main(int argc, char **argv) {

    int rank, size;
    const int height=10, width=10;

    MPI_Init(&argc, &argv);
    MPI_Comm_rank(MPI_COMM_WORLD, &rank);
    MPI_Comm_size(MPI_COMM_WORLD, &size);

    int **recmat;
    int chunk;
    chunk = height / size;

    if (chunk*size != height) {
        fprintf(stderr, "%s: number of ranks %d does not divide size %d\n",
                     argv[0], size, height);
        MPI_Finalize();
        exit(1);
    }

    if (rank == 0) {
        int **recmat = alloc2d(chunk,width);
        int **mat = alloc2d(height,width);
        int worker;
        int i,j,k;
        MPI_Status st;

        /* deal with my own submatrix */
        for (k=0; k<chunk; k++) {
            for (j=0; j<width; j++) {
                mat[k][j] = 0;
            }
        }

        for(i = 1; i < size; i++) {
            MPI_Recv(&(recmat[0][0]), chunk*width, MPI_INT, MPI_ANY_SOURCE, 1,
                                     MPI_COMM_WORLD, &st);

            worker = st.MPI_SOURCE;
            for(k = worker * chunk; k < (worker + 1) * chunk; k++){
                for(j = 0; j < width; j++) {
                    mat[k][j] = recmat[k - worker * chunk][j];
                }
            }
        }

        free(&(recmat[0][0]));
        free(recmat);

        printf("Rank 0: mat is \n");
        for (int i=0; i<height; i++) {
            for (int j=0; j<width; j++) {
                printf("%2d ", mat[i][j]);
            }
            printf("\n");
        }

        free(&(mat[0][0]));
        free(mat);

    } else {
        int **sendmat = alloc2d(chunk,width);
        for (int i=0; i<chunk; i++)
            for (int j=0; j<width; j++)
                sendmat[i][j] = rank;

        MPI_Send(&(sendmat[0][0]), chunk*width, MPI_INT, 0, 1, MPI_COMM_WORLD);

        free(&(sendmat[0][0]));
        free(sendmat);
    }


    MPI_Finalize();

    return 0;
}

关于c - OpenMPI 阻塞接收数组无法正常工作(在某些情况下程序不会停止),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/13921407/

相关文章:

c - rand() 函数每次产生相同的输出 C

parallel-processing - 方便维护 MPI 版本和非 MPI 版本

c++ - MPI_Gather()、MPI_Scatter()中发送计数和接收计数有什么区别?

hadoop - 分布式处理说明

C:两个数组相除

c++ - 现有的静态方法可以使用函数指针成为全局方法吗?

python - 如何使用horovod对正常值进行allreduce运算?

java - 对于远程过程调用,是否有比 Apacher River (Jini) 更好的技术?

redis - 分布式计算 : Cache user based messages for x minutes and then persist

c - 如何将实际字符存储到数组中?