apache-spark - 如何设置 Spark 应用程序退出状态?

标签 apache-spark hadoop-yarn exit-code spark-submit

我正在编写一个 spark 应用程序并使用 spark-submit shell 脚本运行它(使用 yarn-cluster/yarn-client)

正如我现在看到的,spark-submit 的退出代码是根据相关的 yarn 应用程序决定的 - 如果 SUCCEEDED 状态为 0,否则为 1。

我希望可以选择返回另一个退出代码 - 对于我的应用程序成功但出现一些错误的状态。

是否可以?从应用程序返回不同的退出代码?

我尝试使用 System.exit() 但没有成功...

谢谢。

最佳答案

在客户端模式下是可能的,但在集群模式下是不可能的。您有一个集群模式的解决方法。

我对此的回答 question应该可以帮助你。

关于apache-spark - 如何设置 Spark 应用程序退出状态?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41961233/

相关文章:

scala - Spark scala 将 Unix 时间转换为时间戳失败

python - dask-yarn KilledWorker 没有有意义的回溯

linux - 为什么 "$?"条件下 "if"的值变了?

linux - 等待后台的所有子进程完成并退出并返回最后一个子进程的代码

java - JavaRDD<Status> 转换为 JavaRDD<String> 时出现问题

scala - 引用与 SparkSQL CSV 不明确

apache-spark - 值 toDF 不是 org.apache.spark.rdd.RDD[(Long, org.apache.spark.ml.linalg.Vector)] 的成员

java - Hadoop 没有在作业跟踪器中显示我的作业,即使它正在运行

apache-spark - 如何处理 yarn 客户端中运行时间过长的任务(与其他工作相比)?

bash - 使用 --help 参数调用的 bash 脚本应该返回 0 还是非零退出代码?