python - 如何在 PySpark 中构建稀疏矩阵?

标签 python apache-spark pyspark sparse-matrix recommendation-engine

我是 Spark 的新手。我想将稀疏矩阵作为专门用于推荐引擎的用户 ID 项目 ID 矩阵。我知道如何在 python 中执行此操作。如何在 PySpark 中做到这一点?这是我如何在矩阵中完成它。 table 现在看起来像这样。

Session ID| Item ID | Rating
     1          2       1
     1          3       5
    import numpy as np

    data=df[['session_id','item_id','rating']].values
    data

    rows, row_pos = np.unique(data[:, 0], return_inverse=True)
    cols, col_pos = np.unique(data[:, 1], return_inverse=True)

    pivot_table = np.zeros((len(rows), len(cols)), dtype=data.dtype)
    pivot_table[row_pos, col_pos] = data[:, 2]

最佳答案

像那样:

from pyspark.mllib.linalg.distributed import CoordinateMatrix, MatrixEntry

# Create an RDD of (row, col, value) triples
coordinates = sc.parallelize([(1, 2, 1), (1, 3, 5)])
matrix = CoordinateMatrix(coordinates.map(lambda coords: MatrixEntry(*coords)))

关于python - 如何在 PySpark 中构建稀疏矩阵?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38134370/

相关文章:

python - Scrapy - 使用 header 和请求负载模拟 AJAX 请求

scala - 在 Spark 2.4 中做基本的线性代数

scala - 在 spark/scala 中使用不同的预处理交叉验证多个模型

Python 和 Spark : Dataframe Write does not persist on filesystem

python - 如何从 pyspark 中的另一列中查找一列的顶级层次结构?

python - 验证蛋白质序列

java - 从 Java Spring Cloud Config Server 使用 Python 访问配置属性

scala - 我如何处理 Spark scala 中的模式匹配中的空值

apache-spark - Spark RDD 中按行删除重复项

python - 如何从不正确的输入向 Django 输入弹出窗口添加 CSS 样式