python - pyspark 3.0 KMeansModel 误差平方和

标签 python apache-spark pyspark cluster-analysis k-means

我正在尝试通过计算成本方法计算平方误差的集合内总和,但出现此错误:

AttributeError: 'KMeansModel' object has no attribute 'computeCost'
我想它已被弃用,但我找不到办法做到这一点。我总是在我的搜索中得到计算成本。

最佳答案

此问题已通过使用 model.summary.trainingCost 解决而不是 model.computeCost

关于python - pyspark 3.0 KMeansModel 误差平方和,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/63662636/

相关文章:

python - 如何从张量中获取值

python - pyspark数据框中分组元素的分组和除法计数

python - 在 pyspark-2.3 中使用 python 内置函数 **abs** 时出错

scala - 如何从IntelliJ(或其他IDE)运行Spark测试

python - 如何合并 pyspark 和 pandas 数据框

hadoop - 为什么此示例导致NaN?

python - 如何使用 Pandas 中的 assign() 方法创建包含空格的列

javascript - 根据用户当前位置查询位置数据库

python - 将字节数组传递给接受空指针的 C++ 函数

azure - 将 Spark 时间戳保存到 Azure Synapse datetime2 时出现问题(7)