我按照教程进行操作 michael-noll.com/tutorials/running-hadoop-on-ubuntu-linux-multi-node-cluster/
设置我的多节点 hadoop 集群。 唯一的区别是我在一台机器上的用户名是 hduser,在另一台机器上的用户名是 hndata1,现在当我在 master 上启动 dfs 时,它会询问我 hduser@host2 的密码,但我在 host2 上没有 hduser 帐户,它被命名为 hndata1。我需要在哪里进行更改才能正常工作。 注意:ssh key 已添加到 hduser@host1 和 hndata1@host2 机器,因此这两个命令都可以使用
ssh hduser@host1
ssh hndata1@host2
两者都可以正常工作并且不需要密码
另外,如果我在主机1上打开jdk版本的java并在主机2上打开sun java,是否会影响hadoop安装?
最佳答案
尝试将此行添加到
hadoop-env.sh
配置文件中:export HADOOP_USER_NAME="user"
或者在
~/.ssh/
文件夹中创建一个名为config
的文件,其中包含:Host host2 HostName host2 User hndata1
关于linux - Hadoop在两台不同名称的机器上配置多节点集群,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/28658276/