java - 将 Spark "Library"添加到 Scala 项目

标签 java scala apache-spark intellij-idea

我正在浏览一本书,作者遗漏了实际为项目提供 Spark 的 Scala 库的部分。所以像

import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
import org.apache.spark.SparkConf

不工作(在 apache 上失败)。

我是 Scala(以及一般的 JVM 语言)的新手,甚至不确定要搜索什么。我应该找 jar 吗?我将如何添加它们?如果这有助于解释,我正在使用 intelliJ。

我确实有 spark 运行,所以我认为它是我需要安装的 scala 的“客户端”spark 库。

所以使用下面的答案我现在更接近了(现在使用 sbt)但是我有以下错误:

enter image description here

build.sbt 现在是:

name := "gettingThingsRunning"

version := "1.0"

scalaVersion := "2.12.1"

libraryDependencies ++= Seq(
  "org.apache.spark" %% "spark-core" % "1.5.1",
  "org.apache.spark" %% "spark-sql" % "1.5.1" )

最佳答案

您需要使用 Maven 或 sbt 等依赖管理器。

使用 sbt,您可以在项目根文件夹中添加一个 build.sbt 文件,例如:

name := "Simple Project"

version := "1.0"

scalaVersion := "2.11.7"

libraryDependencies += "org.apache.spark" %% "spark-core" % "2.0.2"

然后您可以使用 IntelliJ 的 Scala 插件来“刷新”您的项目并重新索引依赖项。

编辑: 假设您使用 SBT 选项创建了项目,您可以使用侧边栏中的 SBT 功能来刷新您的依赖项:

enter image description here

enter image description here

关于 Spark,我建议阅读 Spark quick start page ,特别是称为“自包含应用程序”的部分。

对于 IntelliJ 和 SBT 项目,我相信您会从阅读以下页面中获益:

https://www.jetbrains.com/help/idea/2016.3/getting-started-with-sbt.html

关于java - 将 Spark "Library"添加到 Scala 项目,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41335215/

相关文章:

java - 前/后增量/减量和操作符顺序困惑

java - 在 JOGL 中渲染纹理球体

java - 通用 EventManager - 在 3 行代码 :-) 后卡住

scala - 我们可以在 Apache Kafka 中将 KStream 转换为全局 KTable 吗?

scala - 如何从 ActorFlow 获取 Actor 引用 (ActorRef)?

hadoop - Apache Spark 中的延迟评估

java - Struts 2 约定插件不起作用!如何让它运行?

dataframe - 在 Spark 中重新分区更改 Dataframe 的行顺序

json - DataType.fromJson() 错误 : java. lang.IllegalArgumentException:无法将 JSON 字符串 'int' 转换为数据类型

scala - playframework 禁用 CSRF 过滤器