hadoop - 错误修复后仍然得到 "Unable to load realm info from SCDynamicStore"

标签 hadoop apache-pig homebrew

我使用 brew install hadoopbrew install pig 安装了 HadoopPig

我读了here您将收到 Unable to load realm info from SCDynamicStore 错误消息,除非您添加:

export HADOOP_OPTS="-Djava.security.krb5.realm=OX.AC.UK -Djava.security.krb5.kdc=kdc0.ox.ac.uk:kdc1.ox.ac.uk"

到你的 hadoop-env.sh 文件,我有。

但是,当我运行 hadoop namenode -format 时,我仍然看到:

java[1548:1703] Unable to load realm info from SCDynamicStore

在输出中。

有人知道为什么我仍然收到它吗?

最佳答案

正如 dturnanski 所建议的,您需要使用较旧的 JDK。您可以在 hadoop-env.sh 文件中设置它,方法是将 JAVA_HOME 设置更改为:

export JAVA_HOME=`/usr/libexec/java_home -v 1.6`

(注意这里的严肃引号。)这解决了我的问题。

关于hadoop - 错误修复后仍然得到 "Unable to load realm info from SCDynamicStore",我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/14716910/

相关文章:

regex - 基于多个分隔符拆分文件

amazon-web-services - 我可以使用 Homebrew 安装最新的 AWS EB CLI 吗?

homebrew - brew install X 和brew cask install X 有什么区别

apache-spark - 是否可以使用HADOOP YARN运行任何应用程序或程序?

hadoop - java.lang.IllegalArgumentException:没有枚举常量org.apache.hadoop.mapreduce.JobCounter.MB_MILLIS_MAPS

Hadoop - 提交具有大量依赖项的作业(jar 文件)

hadoop - 如何知道 yarn cluster 中可用的 reducer 插槽容量

shell - 更新到 Mavericks 后 ffmpeg 无法正常工作

hadoop - teradata connector sqoop sequencefile 格式能否克服分隔符问题?

hadoop - Lein 在 Clojars 和依赖项上的部署