Hadoop:/usr/lib/hadoop-0.20.2/conf/slaves: 没有那个文件或目录

标签 hadoop

我完全按照hadoop官网上的步骤操作,但是总是报如下错误:

starting namenode, logging to /home/videni/Tools/hadoop-1.0.3/libexec/../logs/hadoop-videni-namenode-videni-Latitude-E6400.out
cat: /usr/lib/hadoop-0.20.2/conf/slaves: No such file or directory
cat: /usr/lib/hadoop-0.20.2/conf/masters: No such file or directory
starting jobtracker, logging to /home/videni/Tools/hadoop-1.0.3/libexec/../logs/hadoop-videni-jobtracker-videni-Latitude-E6400.out
cat: /usr/lib/hadoop-0.20.2/conf/slaves: No such file or directory

我现在只想设置一个Standalone Operation,是否必须设置三个xml文件,如core-site.xml、hdfs-site.xml、mapred-site.xml?
我检查了日志文件,其中一些说 Error: JAVA_HOME is not set,但我在 hadoop-env.sh 文件中设置了它。

最佳答案

配置文件取决于 $HADOOP_HOME 路径。确保在 ~/.bashrc 中正确设置了 $HADOOP_HOME。

关于Hadoop:/usr/lib/hadoop-0.20.2/conf/slaves: 没有那个文件或目录,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/12154826/

相关文章:

hadoop - 有人有在 LXC 容器上运行 MapReduce 的经验吗?

class - 了解 Hadoop 包和类

scala - 比较Spark中两个数据框中的列

java - Hadoop MapReduce的结果未将任何数据写入输出文件

linux - 我应该将哪一个用于 hadoop 用户+系统时间或 hadoop 作业计数器中花费的总 cpu 时间的基准测试任务?

sql - 失败:执行错误,在访问Hive View 时从org.apache.hadoop.hive.ql.exec.mr.MapRedTask异常返回代码2

hadoop - HIVE 更新语句中的多个表引用

hadoop - 为什么每次启动hadoop作业都需要密码

hadoop - Spark 应用程序继续运行并且似乎挂起 - org.apache.spark.sql.hive.thriftserver.HiveThriftServer2

hadoop - "no such file or directory"oozie 错误