apache-spark - 对象 ml 不是包 org.apache.spark 的成员

标签 apache-spark sbt apache-spark-mllib

我正在尝试在 Mllib 中迈出第一步。我的库依赖项是:

libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "2.2.0"
libraryDependencies += "com.github.fommil.netlib" % "all" % "1.1.2"

但我仍然得到:
Error:(4, 27) object ml is not a member of package org.apache.spark
  import org.apache.spark.ml.regression.GeneralizedLinearRegression

最佳答案

您已经包含了对 Spark Core 的依赖,您还应该添加 Spark MLLib:

libraryDependencies += "org.apache.spark" % "spark-mllib_2.11" % "2.2.0"

或者更简单:
libraryDependencies += "org.apache.spark" %% "spark-mllib" % "2.2.0"

关于apache-spark - 对象 ml 不是包 org.apache.spark 的成员,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/46025088/

相关文章:

mysql - 从 Apache Spark 访问带有文本列的 MySql 表

java - 如何在数据框中动态地从列表中选择列加上固定列

scala - 防止 sbt 发布自动聚合的根项目

java - 使用 Spark 并行化集合

apache-spark-mllib - 如何使用 Spark Mlib 多层感知器权重数组

python - 使用 Python 的 Apache Spark TFIDF

apache-spark - Spark : RDD Left Outer Join Optimization for Duplicate Keys

hadoop - 在pyspark中对hive表执行操作时如何修复大小限制错误

scala - 如何从 sbt 0.10.0 项目中获取依赖项 jar 列表

sbt - 如何在 Build.scala 文件中使用 '%%%'