hadoop - 启动 Spark REPL 时出错

标签 hadoop apache-spark hadoop-yarn

我有预构建的 Spark 1.4.1,我正在运行 HDP 2.6。当我尝试运行 spark-shell 时,它会给我一条错误消息,如下所示。

 Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/hadoop/fs/FSDataInputStream
    at org.apache.spark.deploy.SparkSubmitArguments$$anonfun$mergeDefaultSparkProperties$1.apply(SparkSubmitArguments.scala:111)
    at org.apache.spark.deploy.SparkSubmitArguments$$anonfun$mergeDefaultSparkProperties$1.apply(SparkSubmitArguments.scala:111)
    at scala.Option.getOrElse(Option.scala:120)
    at org.apache.spark.deploy.SparkSubmitArguments.mergeDefaultSparkProperties(SparkSubmitArguments.scala:111)
    at org.apache.spark.deploy.SparkSubmitArguments.<init>(SparkSubmitArguments.scala:97)
    at org.apache.spark.deploy.SparkSubmit$.main(SparkSubmit.scala:107)
    at org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala)
Caused by: java.lang.ClassNotFoundException: org.apache.hadoop.fs.FSDataInputStream
    at java.net.URLClassLoader$1.run(URLClassLoader.java:366)
    at java.net.URLClassLoader$1.run(URLClassLoader.java:355)
    at java.security.AccessController.doPrivileged(Native Method)
    at java.net.URLClassLoader.findClass(URLClassLoader.java:354)
    at java.lang.ClassLoader.loadClass(ClassLoader.java:425)
    at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:308)
    at java.lang.ClassLoader.loadClass(ClassLoader.java:358)

问题是什么?

最佳答案

ClassNotFoundException occurs when class loader could not find the required class in class path . So , basically you should check your class path and add the class in the classpath.

检查 hadoop-common-0.21.0.jar 是否添加到您的类路径中。

关于hadoop - 启动 Spark REPL 时出错,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31594716/

相关文章:

java - Hadoop WordCount 错误

scala - 数据框过滤器给出 NullPointerException

ssh - 通过SSH隧道通过YARN连接到运行的Spark

mysql - 从 Hive 表中提取 XML 数据并解析数据

mongodb - 实现Hadoop和MongoDB连接器

azure - 自动向 Azure DevOps 自托管代理添加功能

hadoop - 如何以编程方式获取 HDFS 和 YARN 版本?

apache-spark - 在 Spark 集群模式下设置环境变量

hadoop - 如何以破坏Flume中的目录路径的方式访问远程主机中的文件夹

scala - Spark DataFrame 到 RDD 并返回