hadoop - 运行 Hadoop 示例时出现错误 : package org. apache.hadoop.conf 不存在

标签 hadoop classpath

我已经使用 export CLASSPATH=${CLASSPATH}:/~Downloads/hadoop-1.0.4/*.jarhadoop jars 添加到类路径中,但我仍然我收到找不到包的错误。

我正在使用 Java 1.7.0_17

有人知道如何正确设置 hadoop jar 的类路径吗?

最佳答案

您要将它们设置到的不是CLASSPATH,而是HADOOP_CLASSPATH。我喜欢使用以下命令添加当前目录和 lib 目录中的所有 jar 依赖项:

export HADOOP_CLASSPATH=$HADOOP_CLASSPATH:`echo *.jar`:`echo lib/*.jar | sed 's/ /:/g'`

请记住,如果您通过 hadoop jar 开始一项工作,您还需要通过使用 -libjars 将 jar 传递给它。我喜欢使用:

hadoop jar <jar> <class> -libjars `echo ./lib/*.jar | sed 's/ /,/g'` [args...]

注意 sed 命令需要不同的分隔符; HADOOP_CLASSPATH: 分隔的,-libjars 需要 , 分隔。

关于hadoop - 运行 Hadoop 示例时出现错误 : package org. apache.hadoop.conf 不存在,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/15641034/

相关文章:

java - Eclipse 中的类路径和构建路径中的不同 jar 文件

java - gwt 在你的类路径上测试 : unable to find sample. gwt.xml

clojure classpath(?) 使用 leiningen 加载代码和依赖项时遇到问题

java - 不满意链接错误: Using the Remedy API with Java

hadoop - Hive on Spark : Missing <spark-assembly*. jar>

java - 为Hadoop实现协调器服务

hadoop - Oozie 协调器未以指定的频率间隔运行

apache-spark - 为什么最新的Hadoop没有内存计算功能?

hadoop - Spark + yarn 簇: how can i configure physical node to run only one executor\task each time?

java - 如果类路径上的项目丢失,如何在编译/运行时立即触发错误/警告