哪个 Scala 版本适用于 Spark 2.2.0? 我收到以下错误:
Exception in thread "main" java.lang.NoSuchMethodError: scala.Predef$.refArrayOps([Ljava/lang/Object;)Lscala/collection/mutable/ArrayOps;
最佳答案
来自文档here :
Spark runs on Java 8+, Python 2.7+/3.4+ and R 3.1+. For the Scala API, Spark 2.2.0 uses Scala 2.11. You will need to use a compatible Scala version (2.11.x).
关于scala - Spark 2.2.0 兼容的 Scala 版本吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/46494018/