linux - hdfs 无法通过 hduser、hadoop 安装访问

标签 linux hadoop hdfs

我正在 Ubuntu 16.04 上安装 Hadoop 2.6.4。我的问题是当我切换到 hduser 时没有得到 hdfs:

su - hduser 
ssh localhost
hduser>hdfs 
No command 'hdfs' found, did you mean:
Command 'hfs' from package 'hfsutils-tcltk' (universe)
Command 'hdfls' from package 'hdf4-tools' (universe)
hdfs: command not found

但是当我不切换到 hduser 时,我获得了完全访问权限:

 mylaptop>hdfs 
 Usage: hdfs [--config confdir] COMMAND
 where COMMAND is one of:dfs         
 run a filesystem command on the file systems supported in Hadoop. 
 ....

我检查了设置,一切似乎都很好。如果我不使用 hduser 会不会有问题!!

谢谢

最佳答案

每个用户都有自己的 bashrc 文件 所以你必须在 hduser bashrc 文件中设置 hadoop home 和 java home 登录 hduser 后,请设置 $HADOOP_HOME、$JAVA_HOME 和 bin 路径

    #Set HADOOP_HOME
    export HADOOP_HOME=/pathtohadoop/hadoop-2.7.2
    #Set JAVA_HOME
    export JAVA_HOME=/usr/lib/jvm/java-7-openjdk-amd64
    # Add bin/ directory of Hadoop to PATH
    export PATH=$PATH:$HADOOP_HOME/bin

关于linux - hdfs 无法通过 hduser、hadoop 安装访问,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37878816/

相关文章:

linux - HTML5 视频(mp4 格式)标签无法在 linux 操作系统上播放

c - 打开命名管道的问题

hadoop - 本地HDFS访问应该更快吗?

hadoop - 密码问题的 Sqoop 作业

hadoop - 具有纯文本输入和 avro 输出的 mapreduce 作业

hadoop - HDFS- block 大小和每分钟100 MB的文件复制

linux - 如果语句匹配,我如何求和?

python - 按顺序编写命令(Linux)

hadoop - 将文件从本地文件系统复制到hdfs中的问题

apache-spark - 如何复制 parquet 文件并覆盖 HDFS 上的旧文件