scala - Spark yarn 返回退出代码未更新,因为 webUI 中失败 - spark 提交

标签 scala hadoop apache-spark hadoop-yarn distributed-computing

我正在使用 Spark 提交通过 YARN 运行 spark 作业,在我的 spark 作业失败后,作业仍显示状态为 SUCCEED 而不是 FAILED。如何将退出代码作为失败状态从代码返回到 YARN?

我们如何从代码中发送 yarn 不同的应用程序代码状态?

最佳答案

我认为你做不到。我在 上遇到过同样的行为,但在分析失败后,我没有看到任何明显的方法可以从我的应用程序发送“错误”退出代码。

关于scala - Spark yarn 返回退出代码未更新,因为 webUI 中失败 - spark 提交,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30303755/

相关文章:

scala - 如何处理错误 "cannot resolve symbol .."

hadoop - Mesos是否覆盖Hadoop内存设置?

java - Hadoop + Spark : There are 1 datanode(s) running and 1 node(s) are excluded in this operation

apache-spark - Spark 能引爆一 jar jar 吗

scala - 相互引用的不可变实例

斯卡拉/ Spark : Immutable Dataframes and Memory

scala - 如何使用 Spark 创建用于文本分类的 TF-IDF?

hadoop - pig : Invalid field Projection; Projected Field does not exist

scala - 将函数传递给 Spark : What is the risk of referencing the whole object?

hadoop - 文件压缩格式如何影响我的 Spark 处理