hadoop - 使用 master 'yarn' 运行时,必须在环境中设置 HADOOP_CONF_DIR 或 YARN_CONF_DIR

标签 hadoop apache-spark

我正在尝试使用 yarn 运行 Spark,但我遇到了这个错误:

线程“main”中的异常 java.lang.Exception:当使用 master 'yarn' 运行时,必须在环境中设置 HADOOP_CONF_DIRYARN_CONF_DIR

我不确定“环境”在哪里(具体是什么文件?)。我尝试使用:

export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop

在 bash_profile 中,但这似乎没有帮助。

最佳答案

在使用 Yarn 运行 spark 时,您需要在 spark-env.sh

中添加以下行
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

注意:检查 $HADOOP_HOME/etc/hadoop 在您的环境中是否正确。 spark-env.sh 也包含 HADOOP_HOME 的导出。

关于hadoop - 使用 master 'yarn' 运行时,必须在环境中设置 HADOOP_CONF_DIR 或 YARN_CONF_DIR,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/45703235/

相关文章:

apache-spark - Spark 并发写入相同的 HDFS 位置

ubuntu - Ubuntu 12.04 LTS 上的 Hadoop 单节点集群安装在哪里?

hadoop - 实现hadoop实例,产生jar错误

java - 如何设计一个特殊的MapReduce倒排索引?

hadoop - 使用 Apache Spark 多次插入到表中

scala - Spark 不将数据帧保存为 Parquet 文件

hadoop - 有什么方法可以限制Hbase中的列数

hadoop - Hive(大数据)-分桶和索引之间的区别

scala - 应用程序中的 Spark 调度 : performance issue

apache-spark - 如何为 Databricks 笔记本设置自动完成