hadoop - ssh:连接到主机从端口22:连接超时

标签 hadoop ssh cygwin port master-slave

已编辑:-

我已经在两台不同的机器上完成了单节点集群,我已将其中一台作为主机(192.168.1.1),将另一台主机作为从机(192.168.1.2),我成功地能够在两台机器之间进行 ping 操作,我已进行以下更改以进入 2 节点集群更新:-

两台机器上的/etc/hosts hosts.allow

All :  Ashish-PC 192.168.1.1 : allow
All  : slave 192.168.1.2 : allow

主文件

  Ashish-PC

从属文件

  Ashish-PC 
  slave

将本地主机公钥复制到远程主机(从机)时出现错误:端口 22

 ssh-copy-id -i ~/.ssh/id_rsa.pub hadoop@slave
 /usr/bin/ssh-copy-id: INFO: attempting to log in with the new key(s), to filter out any    that are already installed
/usr/bin/ssh-copy-id: ERROR: ssh: connect to host slave port 22: Connection timed out

以及当我在主服务上启动所有 dfs 时:-

 bin/start-dfs.sh
starting namenode, logging to /usr/local/hadoop/libexec/../logs/hadoop-Ashish-namenode-  Ashish-PC.out
slave: ssh: connect to host slave port 22: Connection timed out
Ashish-PC: starting secondarynamenode, logging to       /usr/local/hadoop/libexec/../logs/hadoop-Ashish-secondarynamenode-Ashish-PC.out
slave: ssh: connect to host slave port 22: Connection timed out

复制 key 时:-

ssh-copy-id -i ~/.ssh/id_rsa.pub hadoop@slave
/usr/bin/ssh-copy-id: INFO: attempting to log in with the new key(s), to filter out any that are already installed
/usr/bin/ssh-copy-id: ERROR: ssh: connect to host slave port 22: Connection timed out

我已经使用了 cygwin 并且 ssh 在两台 PC 上都工作正常,我经历了一些更改端口号 22 的建议(因为 ISP 问题),但我不想这样做 because 。 预先感谢您的帮助和回复。

最佳答案

通过在家庭和公共(public)网络中添加 sshd,允许主机通过 Windows 防火墙进行通信... enter image description here

确保每个节点上都启动了 sshd 服务以进行通信。

关于hadoop - ssh:连接到主机从端口22:连接超时,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/18309614/

相关文章:

apache-spark - 与 SparkNLP 的句子相似性仅适用于带有一个句子的 Google Dataproc,当提供多个句子时失败

bash - 使 “Authenticity of host cannot be established”消息出现脚本错误

java - 在Spark Java API中联接行数据集

hadoop - pig 数据类型 : Ordered Tuple v/s Unordered Bag

ssh - 可以在ssh上使用sudo进行编辑的文本编辑器吗?

linux - ssh cronjob with while 仅执行 1 次

python - 在 Cygwin 上安装新版本的 Python 不会安装 Pip?

gcc - 如何解决 mno cygwin 错误?

c++ - eclipse "crossGCC"

java - 如何使Hadoop reducer 为单个键输出多个值