hadoop - 使用密码 ssh 的防护方法

标签 hadoop apache-zookeeper

我使用的是 hadoop apache 2.7.1

hadoop集群设置高可用后

自动 zookeeper 故障转移 Controller zkfc 将应用屏蔽方法

如果两个名称节点发生故障,则将其隔离(停止)

hdfs-site 属性中的 dfs.ha.fencing.methods 将此方法作为 sshfence

处理

但我的问题是如果我们有一个带密码的 ssh 怎么办

防护是否会发生或自动故障转移仅在无密码 ssh 的情况下起作用?

有什么方法可以让 sshfencce 在配置中的 ssh 中包含密码?

最佳答案

否。 为了使 sshfence 正常工作,它必须能够在不提供密码的情况下通过 SSH 连接到目标节点。通过 key 身份验证的 SSH 是唯一支持的模式。

关于hadoop - 使用密码 ssh 的防护方法,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43229480/

相关文章:

types - Hadoop 流式传输示例失败 映射中的键类型不匹配

hadoop - 无法将HDFS与URI连接

linux - mesos-master 找不到 mesos-slave,并在短时间内选举出新的领导者

solr - 查询 solr 集群的节点状态

java - 在运行时更改 Autowiring 对象

apache-zookeeper - 将 Kafka 0.8.1 与 Zookeeper 3.4.6 结合使用时遇到 LeaderNotAvailableException

hadoop - hipi gradle构建错误

database - 重启后Hbase数据被删除

java - Apache flume 推特代理不流数据

apache-kafka - 动物园管理员 vs 卡夫卡筏