java - intellij idea 在 : import org. apache.spark.{SparkContext, SparkConf} 上出现 scala 错误

标签 java scala intellij-idea apache-spark sbt

我正在使用intelli j idea(如eclipse)与scala集成,我创建了一个scala sbt项目,我使用spark 1.4.0和scala 2.11.6,我收到错误: 导入 org.apache.spark.{SparkContext, SparkConf}

文件 buid.sbt 包含以下代码:

名称:=“简单”

版本:=“1.0”

scala版本:=“2.11.6”

libraryDependency += "org.apache.spark"% "spark-core_2.10"% "1.4.0"

当我使用maven构建java应用程序时,我没有问题,只是问题是当我尝试使用intellij idea使用sbt构建scala应用程序时

最佳答案

你的scala版本和spark scala版本错误。更改您的 Spark 依赖项:

libraryDependencies += "org.apache.spark" %% "spark-core" % "1.4.0"

关于java - intellij idea 在 : import org. apache.spark.{SparkContext, SparkConf} 上出现 scala 错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30919241/

相关文章:

java - 在 ListView 中显示多维数组中的行中的两列 - android

java - 如何处理多个 Akka Actor?

java - IDEA如何处理maven项目中的依赖关系?

java - 如何在不运行代码的情况下找出 Intellij Idea 中的静态字符串结果连接?

java - 遍历 Guava LoadingCache 的 map View 条目集是否会重置用于过期的访问时间?

java - 如何获取文件的媒体类型(MIME类型)?

scala - 如何管理 Akka 使用的核心数?

scala - 如何在没有 SQL 查询的情况下使用 Spark Dataframe 检查相等性?

java - 在 TeamCity 中构建 IntelliJ 项目

java - 使用 PrivateKey、PublicKey 和 Certificate 对象设置 SSLContext