apache-spark - Spark2.4.6 没有 hadoop : A JNI error has occurred

标签 apache-spark hadoop

在我的 Windows 机器上,我尝试使用 spark 2.4.6 而不使用 hadoop 使用 -
spark-2.4.6-bin-without-hadoop-scala-2.12.tgz
设置 SPARK_HOME、HADOOP_HOME 和 SPARK_DIST_CLASSPATH 后,信息来自链接 here
当我尝试启动 spark-shell 时,出现此错误 -

Error: A JNI error has occurred, please check your installation and try again
Exception in thread "main" java.lang.NoClassDefFoundError: org/slf4j/Logger
        at java.lang.Class.getDeclaredMethods0(Native Method)
        at java.lang.Class.privateGetDeclaredMethods(Class.java:2701)
        at java.lang.Class.privateGetMethodRecursive(Class.java:3048)
        at java.lang.Class.getMethod0(Class.java:3018)
        at java.lang.Class.getMethod(Class.java:1784)
        at sun.launcher.LauncherHelper.validateMainClass(LauncherHelper.java:544)
        at sun.launcher.LauncherHelper.checkAndLoadMain(LauncherHelper.java:526)
Caused by: java.lang.ClassNotFoundException: org.slf4j.Logger
        at java.net.URLClassLoader.findClass(URLClassLoader.java:381)
        at java.lang.ClassLoader.loadClass(ClassLoader.java:424)
        at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:335)
        at java.lang.ClassLoader.loadClass(ClassLoader.java:357)
        ... 7 more
上面引用的链接似乎和许多其他链接指向 SPARK_DIST_CLASSPATH ,但我已经在我的系统变量中有这个 -
$HADOOP_HOME;$HADOOP_HOME\etc\hadoop*;$HADOOP_HOME\share\hadoop\common\lib*;$HADOOP_HOME\share\hadoop\common*;$HADOOP_HOME\share\hadoop\hdfs*;$HADOOP_HOME\share\hadoop\hdfs\lib*;$HADOOP_HOME\share\hadoop\hdfs*;$HADOOP_HOME\share\hadoop\yarn\lib*;$HADOOP_HOME\share\hadoop\yarn*;$HADOOP_HOME\share\hadoop\mapreduce\lib*;$ HADOOP_HOME\share\hadoop\mapreduce*;$HADOOP_HOME\share\hadoop\tools\lib*;
我在 spark-env.sh 中也有这一行 -
export SPARK_DIST_CLASSPATH=$(C:\opt\spark\hadoop-2.7.3\bin\hadoop classpath)
HADOOP_HOME = C:\opt\spark\hadoop-2.7.3
SPARK_HOME = C:\opt\spark\spark-2.4.6-bin-without-hadoop-scala-2.12
当我尝试使用 hadoop 附带的 spark 2.4.5 时,它似乎工作得很好。这告诉我我的 hadoop 设置方式有问题。我在这里缺少什么?
谢谢!

最佳答案

找到解决方案 here .

  • 转到您的 ~/.bashrc
  • 添加 export SPARK_DIST_CLASSPATH=$(hadoop classpath)
  • 使用 source ~/.bashrc 应用环境

  • Apache Spark environment variables

    关于apache-spark - Spark2.4.6 没有 hadoop : A JNI error has occurred,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/63368755/

    相关文章:

    hadoop - 50 个节点 hadoop passphraseless

    scala - 流静态加入 : How to refresh (unpersist/persist) static Dataframe periodically

    apache-spark - 使用 ALS.recommendation 得到错误的推荐

    python - 如何使用 Apache Spark 执行简单的网格搜索

    apache-spark - 警告 cluster.YarnScheduler : Initial job has not accepted any resources

    join - 您对 Hadoop MapReduce 作业的建议

    所有节点的 Hadoop 版本

    rest - 如何通过 REST API 提交作业?

    Hadoop客户端节点安装

    hadoop - 映射器是否将它的中间输出存储在它运行的数据节点的 RAM 上?