python - pyspark:将稀疏局部矩阵转换为 RDD

标签 python numpy matrix apache-spark pyspark

我有一个稀疏矩阵(我从 python 函数接收),我想将其转换为 numpy 矩阵。 numpy 矩阵不适合本地 RAM,我想将其放入 pySpark 中的 RDD 中。我一般对 Spark 不太熟悉,所以我不知道如何将本地空间矩阵加载到 RDD 中。

最佳答案

此问题是通过“1.4.1 Spark 知识之前”提交的。显然spark库中已经添加了稀疏矩阵。 Spark SparseMatrix

关于python - pyspark:将稀疏局部矩阵转换为 RDD,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30877484/

相关文章:

用于链接和释放的 C 矩阵函数设计

c++ - 如何组成一个矩阵来执行世界坐标的等轴测(二轴测)投影?

python - 尽管有种子,Numpy 仍产生不同的随机数

两个不等长分布的 Python Q-Q 和 P-P 图

python - Sphinx autodoc 没有导入任何东西?

python - 在OSX 10.7上读写OpenEXR时,OpenCV 2.4.3引发错误

python - Pandas 按字符串过滤

python - 使用 numpy.where() 或类似方法从矩阵中的行获取特定值

r - 逆 cbind() 函数 R

python - 将两个凸不相交的多边形合并为一个