eclipse - 使用IntelliJ或Eclipse进行Spark

标签 eclipse intellij-idea compiler-errors

我正在尝试为spark 2.11设置IntelliJ,但是这非常艰巨,并且几天后我无法编译诸如“spark.read.format”之类的简单指令,该指令在主核心和sql spark库中找不到。

我已经看到了有关该主题的一些帖子,但都没有解决。有人对我可以开始的可行示例程序有一些经验吗?

使用Eclipse会更容易吗?

预先感谢您的回答,
EZ

最佳答案

使用scala 2.11和sbt 0.13在Intellij中构建项目:然后确保您的plugins.sbt包含以下内容:

logLevel := Level.Warn

addSbtPlugin("com.eed3si9n" % "sbt-assembly" % "0.13.0")

那么您的build.sbt必须包含以下内容:
scalaVersion := "2.11.8"

val sparkVersion = "2.1.0"

libraryDependencies += "org.apache.spark" %% "spark-core" % sparkVersion %"provided"

libraryDependencies +=  "org.apache.spark" %% "spark-sql" % sparkVersion %"provided"

然后编写代码,在Terminal中单击Intellij并键入sbt assembly:您可以将该jar运送到远程集群,否则从本地Intelij运行,让我知道它的运行方式

关于eclipse - 使用IntelliJ或Eclipse进行Spark,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43166155/

相关文章:

java - 如何创建一个按单个字符读取整数的循环

Android - 图书馆项目

eclipse - Eclipse 是否支持虚拟空白?

python - IDE 无法识别子类中的函数签名与基方法匹配

git - IntelliJ 理念 : Disable Auto Commit on Merge

c++ - fatal error : "No Target Architecture" in Visual Studio

c++ - QRCodeSignature类不允许记录语句

java - ''Launch MainActivity' ' 代码阻止文本显示

java - 如何更改 Eclipse 运行配置的工作目录?

maven - 找不到有效的 Maven 安装。在配置对话框中设置主目录或在系统上设置 M2_HOME 环境变量