hadoop - 开始-dfs.sh : command not found on ubuntu 12. 04

标签 hadoop

我已经安装了 hadoop 2.2.0。在 Ubuntu 12.04 上。但是命令 start-dfs.sh 不起作用。当我运行此命令时,它返回 start-dfs.sh: command not foundstart-dfs.shstart-all.shstop-dfs.shstop-all.sh 位于 sbin 目录中。可能是什么问题?

最佳答案

第一个解决方案

设置 Hadoop 环境变量

$cd ~
$vi .bashrc
 
paste following to the end of the file
 
#Hadoop variables
export JAVA_HOME=/usr/lib/jvm/jdk/
export HADOOP_INSTALL=/usr/local/hadoop
export PATH=$PATH:$HADOOP_INSTALL/bin
export PATH=$PATH:$HADOOP_INSTALL/sbin
export HADOOP_MAPRED_HOME=$HADOOP_INSTALL
export HADOOP_COMMON_HOME=$HADOOP_INSTALL
export HADOOP_HDFS_HOME=$HADOOP_INSTALL
export YARN_HOME=$HADOOP_INSTALL
###end of paste
 
$ cd /usr/local/hadoop/etc/hadoop
$ vi hadoop-env.sh
 
#modify JAVA_HOME
export JAVA_HOME=/usr/lib/jvm/jdk/

关闭文件并执行这条命令

source .bashrc
start-all.sh

如果不行重启试试上面的命令

第二种解决方案

进入hadoop的sbin目录

cd /home/kishore/hadoop/sbin
  ./start-all.sh

注意 - 确保权限和所有者应该是正确的。

关于hadoop - 开始-dfs.sh : command not found on ubuntu 12. 04,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/32337492/

相关文章:

hadoop - 更改 Hadoop 中的数据节点数量

sql - 在配置单元中使用 wm_concat 时,如何用 0 填充不存在的值?

json - 使用关键 HAWQ 的数据即服务

sql - 将oracle导入hadoop

hadoop - hadoop和sqoop可以在不同机器上分开运行吗

hadoop - Spark : How to start remotely Jupyter in 'yarn_client' mode from a different user

r - 示例不工作 - bind.cols 使用 plyrmr

persistence - 具有 HBase 持久性的 ActiveMQ

java - 已弃用的用于实现通用 UDAF 的接口(interface)

java - Reducer 获得的记录少于预期