java - $HADOOP_HOME 已弃用,Hadoop

标签 java hadoop ubuntu-12.04

我尝试在单节点集群上安装Hadoop(我自己的labtop-ubuntu 12.04)。 我按照本教程逐行检查了两次。 http://www.michael-noll.com/tutorials/running-hadoop-on-ubuntu-linux-single-node-cluster/

一切似乎都是正确的。我设置了所有的 core-site.xml , mapred-site.xml , hdfs-site.xml 。

当我在 hduser su 中运行以下命令时:

hduser@maziyar-Lenovo-IdeaPad-U300s:~$ /usr/local/hadoop/usr/sbin/start-all.sh

我收到以下错误:

Warning: $HADOOP_HOME is deprecated.

starting namenode, logging to /usr/local/hadoop/usr/libexec/../logs/hadoop-hduser-namenode-maziyar-Lenovo-IdeaPad-U300s.out
cat: /usr/local/hadoop/usr/libexec/../etc/hadoop/slaves: No such file or directory
cat: /usr/local/hadoop/usr/libexec/../etc/hadoop/masters: No such file or directory
starting jobtracker, logging to /usr/local/hadoop/usr/libexec/../logs/hadoop-hduser-jobtracker-maziyar-Lenovo-IdeaPad-U300s.out
cat: /usr/local/hadoop/usr/libexec/../etc/hadoop/slaves: No such file or directory

我将 export HADOOP_HOME_WARN_SUPPRESS="TRUE"添加到 hadoop-env.sh 中,但仍然出现同样的错误。

在文件/home/hduser/.bashrc 上,我猜我的错误来自于:

# Set Hadoop-related environment variables
export HADOOP_HOME=/usr/local/hadoop

# Set JAVA_HOME (we will also configure JAVA_HOME directly for Hadoop later on)
export JAVA_HOME=/usr/lib/jvm/jdk-7u10-linuxi586/usr/java/jdk1.7.0_10

# Some convenient aliases and functions for running Hadoop-related commands
unalias fs &> /dev/null
alias fs="hadoop fs"
unalias hls &> /dev/null
alias hls="fs -ls"

# If you have LZO compression enabled in your Hadoop cluster and
# compress job outputs with LZOP (not covered in this tutorial):
# Conveniently inspect an LZOP compressed file from the command
# line; run via:
#
# $ lzohead /hdfs/path/to/lzop/compressed/file.lzo
#
# Requires installed 'lzop' command.
#
lzohead () {
    hadoop fs -cat $1 | lzop -dc | head -1000 | less
}

# Add Hadoop bin/ directory to PATH
export PATH=$PATH:$HADOOP_HOME/usr/sbin

我将/usr/sbin 添加为 bin 目录,因为那里有 start-all.sh 和命令。

我还在 bashrc 文件中尝试了“HADOOP_PREFIX”而不是“HADOOP_HOME”,但仍然是同样的错误。

我的 hadoop 目录中有这个文件夹,

maziyar@maziyar-Lenovo-IdeaPad-U300s:/usr/local/hadoop$ ls -lha
total 20K
drwxr-xr-x  5 hduser hadoop 4.0K May 30 15:25 .
drwxr-xr-x 12 root   root   4.0K May 30 15:25 ..
drwxr-xr-x  4 hduser hadoop 4.0K May 30 15:25 etc
drwxr-xr-x 12 hduser hadoop 4.0K Jun  4 21:29 usr
drwxr-xr-x  4 hduser hadoop 4.0K May 30 15:25 var

我上周下载了最新版的apache-hadoop:hadoop-1.1.2-1.i386.rpm

最佳答案

我尝试在我的 conf/hadoop-env.sh 文件中设置 export HADOOP_HOME_WARN_SUPPRESS="TRUE" 并且警告消失了。虽然,我仍然不确定为什么首先出现此警告。

关于java - $HADOOP_HOME 已弃用,Hadoop,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/16936745/

相关文章:

c++ - 我如何确定 libssl-dev 包含来自 libssl 0.9.8 而不是 libssl 1.0 的 header ?

c++ - 在 64 位服务器上构建代码时 g++ 4.6.3 崩溃

java - Eclipse:提取方法功能失败

java - FitsSystemWindows 不工作

java - 单例设计和其中的新对象

sorting - 在 Hadoop2 中进行基准排序时出错 - 分区不匹配

r - 完全删除并重新安装 R,包括所有软件包

java - 打开Jar内的.Class文件并对其进行修改

arrays - Hive中的数组拆分

hadoop - SSIS上的Hadoop Hive任务返回错误代码64