这是我正在遵循的教程:
http://wiki.apache.org/hadoop/Running_Hadoop_On_Ubuntu_Linux_(Single-Node_Cluster )
我正在尝试格式化 hdfs namenode
root@alexander-desktop:/usr/local/hadoop/bin# ./hadoop namenode -format
./hadoop: line 258: /usr/lib/jvm/java-6-sun/bin/java: No such file or directory
./hadoop: line 289: /usr/lib/jvm/java-6-sun/bin/java: No such file or directory
./hadoop: line 289: exec: /usr/lib/jvm/java-6-sun/bin/java: cannot execute: No such file or directory
我还包含了对/etc/bash.bashrc
所做的更改。这些是为了配置路径:
export JAVA_HOME=/usr/lib/jvm/java-6-openjdk
export JDK_HOME=$JAVA_HOME
export PATH=$PATH:$JAVA_HOME/bin
我检查了 java 变量是否已设置
回显$JAVA_HOME
。下面是路径
/usr/lib/jvm/java-6-openjdk
which java
返回的二进制文件与 $JAVA_HOME
指向的二进制文件不同。解决这个问题的最佳方法是什么?
最佳答案
第 1 步:
export JAVA_HOME=/path/to/java
export HADOOP_HOME=/path/to/hadoop
第2步:将JAVA_HOME路径设置为conf/hadoop-env.sh
第 3 步:conf/core-site.xml:
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
第 4 步:conf/hdfs-site.xml:
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
第 5 步:conf/mapred-site.xml:
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
</configuration>
第 6 步:登录 SSH 本地主机并格式化新的分布式文件系统
bin/hadoop namenode -format
第 7 步:启动 hadoop 守护进程:
bin/start-all.sh
第8步:检查端口下面的NameNode和JobTracker
http://localhost:50070/
http://localhost:50030/
关于java - ubuntu hadoop 类路径,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/11313358/