hadoop - 更改 CDH5 Kerberos 身份验证后,我无法访问 hdfs

标签 hadoop cloudera-cdh

我正在尝试实现 Kerberos 身份验证。我正在使用 Hadoop 2.3 上的 hadoop 版本cdh5.0.1 .我做了以下更改:

  • 添加了以下属性核心站点.xml
    <property>
    <name>hadoop.security.authentication</name>
    <value>kerberos</value>
    </property>
    <property>
    <name>hadoop.security.authorization</name>
    <value>true</value>
    </property>
    

    在我发出 hadoop fs -ls/命令时重新启动守护程序后,我收到以下错误:

    ls:本地异常失败:java.io.IOException:服务器要求我们回退到简单例份验证,但此客户端配置为仅允许安全连接。主机详情:本地主机为:“cldx-xxxx-xxxx/xxx.xx.xx.xx”;目的主机是:“cldx-xxxx-xxxx”:8020;

  • 请帮帮我。

    提前致谢,
    安基塔辛格拉

    最佳答案

    配置安全的 HDFS 集群不仅仅是指定 hadoop.security.authentication。如Kerberos .见配置Hadoop Security in CDH 5关于所需的配置设置。您需要创建适当的 key 表文件。只有在您配置完所有内容并确认没有任何 Hadoop 服务在其各自的日志中报告任何错误(namenode、所有主机上的 datanode、resourcemanager、所有节点上的 nodemanager 等)后,您才能尝试连接。

    关于hadoop - 更改 CDH5 Kerberos 身份验证后,我无法访问 hdfs,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/25306446/

    相关文章:

    hadoop - 使用flume根据消息中的属性重定向JMS消息

    hadoop - 为什么 "hadoop fs -mkdir"会因权限被拒绝而失败?

    mysql - 通过sqoop将hive hadoop中的数据存入mysql?

    apache-spark - Spark Streaming 创建许多小文件

    linux - 通过 Linux 脚本或 falcon 更新文本文件中的日期和时间 : Hadoop

    hadoop - CDH5 上的启动/停止 hadoop hdfs/mapred 脚本在哪里

    hadoop - Parquet 上的 Spark 与 Hive 上的 Spark(Parquet 格式)

    hadoop - 插入覆盖本地目录启动 map reduce 作业以进行简单查询

    hadoop - 在Cloudera中使用Serde加载JSON文件

    apache-spark - 找不到 SparkSQL key : scale