hadoop - 如何永久更改 sshd_config 文件?

标签 hadoop ssh localhost sshd

我正在尝试在我的 Ubuntu 系统上配置 Hadoop MapReduce 环境。我创建了一个名为 hduser 的新用户,并将其放在一个新组 hadoop 下。我创建了一个 ssh 证书并将其添加到授权 key 中。但是每当我尝试连接到本地主机时,我都会遇到麻烦,因为它一直在询问密码而不是使用 key 身份验证。

我通过将用户 hduser 添加到 /etc/ssh/sshd_config 中的 AllowUsers 列表来解决这个问题。我能够连接到本地主机并运行 HDFS 系统。

现在的问题是每次我关闭 Hadoop 服务器时,我在 sshd_config 文件中为 hduser 创建的条目都会被删除。因此,每次在启动 Hadoop 进程之前,我都必须在 sshd_config 文件中再次输入并reload ssh。有什么方法可以使更改永久生效,这样我就不必每次都这样做了吗?

我还尝试注释掉 AllowUsers 字段,但每次都会自动取消注释。

谢谢, TM

编辑: 我与系统管理员交谈过,似乎系统范围的配置管理应用程序不时更新配置文件。将我的 Hadoop 用户添加到他们的列表中,现在一切正常。

最佳答案

您是否执行了这些步骤:

$ ssh-keygen -t rsa -P ''

...

Your identification has been saved in /home/hduser/.ssh/id_rsa.

Your public key has been saved in /home/hduser/.ssh/id_rsa.pub.

...

    $ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

    $ ssh localhost

这些行来自这个 tutorial

关于hadoop - 如何永久更改 sshd_config 文件?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/23126978/

相关文章:

hadoop - 如何杀死Hadoop fs -copyToLocal任务

asp.net-mvc - ASP.NET MVC : How to automatically disable [RequireHttps] on localhost?

linux - 期望脚本在 2 个服务器之间远程 SSH

python - 使用 python 脚本在远程计算机上执行 bash 命令

mysql - 如何将 WordPress 与本地主机和另一台服务器上预先存在的数据库一起使用

webpack - 使用 webpack 开发服务器将 localhost 重命名为自定义域?

java - MapReduce 中的 N 轮减少

Java Hadoop MapReduce 链接作业

hadoop - Hadoop 的示例数据

linux - VSO 通过 SSH 任务复制文件 - 它可以复制到我自己的本地 linux 机器(树莓派)吗?