scala - Spark 2.2.0 兼容的 Scala 版本吗?

标签 scala apache-spark

哪个 Scala 版本适用于 Spark 2.2.0? 我收到以下错误:

Exception in thread "main" java.lang.NoSuchMethodError: scala.Predef$.refArrayOps([Ljava/lang/Object;)Lscala/collection/mutable/ArrayOps;

最佳答案

来自文档here :

Spark runs on Java 8+, Python 2.7+/3.4+ and R 3.1+. For the Scala API, Spark 2.2.0 uses Scala 2.11. You will need to use a compatible Scala version (2.11.x).

关于scala - Spark 2.2.0 兼容的 Scala 版本吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/46494018/

相关文章:

java - 为依赖项引发 ClassNotFoundException

apache-spark - 什么是 Parquet 摘要文件?

scala - 使用与当前版本不同的 scalaVersion 评估任务

scala - Scala中方括号A的目的是什么

Scala:如何从文件中读取文本时删除空行

hadoop - Spark-提交问题加载类

hadoop - 使用 Apache Spark 多次插入到表中

Spark 作业中的 Java 堆利用率

scala - Play 框架 2.4 的 HTTP 基本身份验证

scala - FlatSpec 在使用 'should contain only' 时显示奇怪的行为