apache-spark - Spark提交失败,返回码为13,例如wordCount

标签 apache-spark hadoop yarn spark-submit

我的spark-submit命令是:

spark-submit --class com.sundogsoftware.spark.WordCountBetterDataset --master yarn --deploy-mode cluster SparkCourse.jar
为了定义sparkSession,我使用以下代码:
val spark = SparkSession
  .builder
  .master("spark://youness:7077")
  .appName("WordCount")
  .getOrCreate()
但最后,我的工作失败,返回码为13。

最佳答案

您需要在代码中取消设置master。最好在以后发布spark-submit(spark-submit --master yarn-client ...)并且已经在上面进行设置时进行设置。只需从代码中删除.master("spark://youness:7077")

关于apache-spark - Spark提交失败,返回码为13,例如wordCount,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/64322170/

相关文章:

hadoop - 作业在子队列中提交,但不在父队列中提交

scala - 将重试添加到 future 序列中,以便在 Scala 中并行运行 Databricks 笔记本

scala - 使用spark-shell时使用sparkConf.set(..)自定义SparkContext

apache-spark - 如何为 Kafka Connect 和 Spark 注册和使用 AVRO Schema?

hadoop - 大小> 64 MB的gzip输入文件出现问题

hadoop - net.sf.jasperreports.engine.JRException:未定义反序列化器

grails - hbase-如何在不删除表的情况下更改表结构

hadoop - 如何使用 Spark 在 yarn 簇模式下将原木直接打印到控制台上

java - Spark 驱动程序出现 OutOfMemoryError - 配置 10Gb 时堆转储 1Gb

hadoop - Hadoop JobHistory仅显示失败的作业