apache-spark - Spark 应用程序在 Spark 上下文初始化之前以 "ERROR root: EAP#5: Application configuration file is missing"退出

标签 apache-spark hadoop

我正在尝试使用以下 spark-submit 命令执行 spark 作业-

spark-submit --class package.Classname --queue QueueName --executor-cores 2 --master yarn --deploy-mode cluster --executor-memory 8G --num-executors 20 --driver-memory 10G --conf "spark.yarn.executor.memoryOverhead=3G" --conf "spark.speculation=true" --conf "spark.network.timeout=600" --conf "spark.rpc.askTimeout=600s" --conf "spark.executor.heartbeatInterval=120s" --conf "spark.driver.extraJavaOptions=-Dlog4j.configuration=log4j-spark.properties" --conf "spark.executor.extraJavaOptions=-Dlog4j.configuration=log4j-spark.properties" --conf "spark.serializer=org.apache.spark.serializer.KryoSerializer" --conf "spark.root.logger=ALL,console" --conf "spark.hadoop.validateOutputSpecs=false" --conf "spark.driver.extraClassPath=/home/tumulusr/spark-defaults.conf" --files /etc/spark2/2.6.4.0-91/0/hive-site.xml,config/ibnext.properties,config/hive.properties,config/mongo.properties,config/error.properties /home/tumulusr/pn.jar



该应用程序被接受,但很快它退出并出现以下错误:

错误根目录:EAP#5:缺少应用程序配置文件
INFO ApplicationMaster:最终应用状态:FAILED,exitCode:16,(原因:在报告最终状态之前调用了关闭 Hook 。)
INFO ApplicationMaster:使用 FAILED 取消注册 ApplicationMaster(诊断消息:在报告最终状态之前调用了关闭 Hook 。)
INFO ApplicationMaster:删除暂存目录(带有应用程序 ID 的目录路径)
信息 ShutdownHookManager: 称为
的关闭 Hook

我错过了我的 spark-submit 命令吗?

最佳答案

你可以试试下面的:

export SPARK_MAJOR_VERSION=2;export HADOOP_CONF_DIR=**/hadoop/conf/path**; spark-submit

关于apache-spark - Spark 应用程序在 Spark 上下文初始化之前以 "ERROR root: EAP#5: Application configuration file is missing"退出,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51647552/

相关文章:

java - 如何在 Apache Spark 中为两个具有不同结构的 DataFrame 实现 NOT IN

python - 如何在spark中进行分组和累加?

hadoop - 是否有 s3distcp 的开源版本?

hadoop - 使用命令行将 csv 文件放入 HDFS

hadoop - 为 Hadoop 下载大数据

hadoop - Pig-使用位置表示法时,如何在JOIN之后引用FOREACH中的列?

apache-spark - pyspark : How to take a sample RDD from a huge RDD?

python - 首先按特定字段值排序 pyspark

python - 在 Spark 数据集上应用函数

apache - 如何在不重新启动 oozie 作业的情况下重新加载 oozie 作业配置文件