java - 线程 "main"java.lang.NoSuchMethodError : scala. Predef$.refArrayOps(

标签 java scala apache-spark intellij-idea sparkcore

<分区>

我是 scala 的新手,在 INTELLJ 中出现以下代码错误,任何人都可以帮助解决它

     import org.apache.spark.{SparkContext, SparkConf}
     object wordcount {
     def main(args: Array[String])
      {
      val conf = new SparkConf()
      .setMaster("local[*]")
      .setAppName("TestSpark")
      .set("spark.executor.memory","2g")

       val sc = new SparkContext(conf)
       val a  = sc.parallelize(Seq("This is the firstline", "This is the  
       second line", "This is the third line"))              
       val count = a.flatMap(x => x.split(" "))
       val counts = count.map(word => (word,1)).reduceByKey((x,y) => x+y)
        counts.foreach(println)

       }

       }

我遇到以下错误:

      Exception in thread "main" java.lang.NoSuchMethodError:    
     scala.Predef$.refArrayOps([Ljava/lang/Object;)
      Lscala/collection/mutable/ArrayOps;
      at org.apache.spark.util.Utils$.getCallSite(Utils.scala:1342)
     at org.apache.spark.SparkContext.<init>(SparkContext.scala:81)
     at wordcount$.main(wordcount.scala:12)
     at wordcount.main(wordcount.scala)
     Using Spark's default log4j profile: org/apache/spark/log4j-    

下面是我构建的 SBT

      name := "scalaprograms"

      version := "1.0"

       scalaVersion := "2.12.1"

      libraryDependencies += "org.apache.spark" % "spark-core_2.11" %

最佳答案

您应该使用 Scala 2.11 才能使用 spark-core_2.11。 IE。使用:

scalaVersion := "2.11.8"

AFAIk Spark 还不适用于 Scala 2.12

关于java - 线程 "main"java.lang.NoSuchMethodError : scala. Predef$.refArrayOps(,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43192915/

相关文章:

xml - 带空格的 Scala XML 模式

java - Java/Scala 中 Spark-csv 的时间戳解析

python - 读取 (Pyspark? 中的 JDBC 源代码时出现不支持的数组错误)

java - 如何找到最接近另一个数字的数字,即 2 的幂?

java,正则表达式字符串不包含/之间的一组单词

java - 如何使用 Java Panama 在 native 内存中存储对象数组

python - Spark 读取文件不包含模式

java - 有没有办法从 ratpack ctx.next() 获得 Promise

scala - akka Camel vs scalaz Camel

斯卡拉探查器?