scala - 在intellij的sbt项目中使用spark

标签 scala intellij-idea apache-spark sbt

这是 build.sbt 文件:

name := "scalaChartTest"

version := "1.0"

scalaVersion := "2.11.7"

//libraryDependencies += "org.jfree" % "jfreechart" % "1.0.19"
//
//libraryDependencies += "org.scalafx" %% "scalafx" % "8.0.0-R4"
//
//libraryDependencies += "com.github.wookietreiber" %% "scala-chart" % "latest.integration"

libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "1.4.1"

刷新后出现错误:
15:56:30 SBT project import
         [warn] Multiple dependencies with the same organization/name but different versions. To avoid conflict, pick one version:
         [warn]  * org.scala-lang:scala-compiler:(2.11.0, 2.11.7)
         [warn]  * org.scala-lang:scala-reflect:(2.11.2, 2.11.7)
         [warn]  * jline:jline:(0.9.94, 2.12.1)
         [warn]  * org.scala-lang.modules:scala-parser-combinators_2.11:(1.0.1, 1.0.4)
         [warn]  * org.scala-lang.modules:scala-xml_2.11:(1.0.1, 1.0.4)
         [warn]  * org.slf4j:slf4j-api:(1.6.4, 1.7.10)

这里出了什么问题?

最佳答案

您对警告中提到的库有间接依赖性。存在冲突,因为间接依赖项中的版本与 sbt 文件中指定的版本不同(在这种情况下可能是 scala 版本)。冲突由 sbt 自动解决(根据您的配置选择任一版本)。但是,自动选择的版本可能不是您打算使用的版本,因此会发出警告。

在您的情况下,这可能不是问题。但是,如果您愿意,可以明确排除间接依赖项:

libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "1.4.1" excludeAll (
  ExclusionRule(organization = "org.scala-lang"),
  ExclusionRule("jline", "jline"),
  ExclusionRule("org.slf4j", "slf4j-api")
  )

关于scala - 在intellij的sbt项目中使用spark,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/32413887/

相关文章:

scala - 协变类型T发生在相反位置

scala - 从 Play WS 获取 ahcResponse

eclipse - 在Intellij IDEA中自动激活maven配置文件

scala - Spark-shell 命令抛出错误

scala - 我可以使用结构类型调用静态 Java 方法吗?

android - 添加 volley.jar 库后没有主 list 属性错误

intellij-idea - 在IntelliJ IDEA中查找单词的下一个出现的快捷方式是什么?

machine-learning - 为什么spark.ml不实现任何spark.mllib算法?

postgresql - 如何使用maven在spark中包含jdbc jar

java - Spark : rewrite . 过滤器 ("count > 1") 没有字符串表达式