我有一个驱动程序,它在 Hadoop 2.4.0 上使用 org.apache.hadoop.mapreduce.Job.waitForCompletion(boolean) 启动 MapReduce 作业。我遇到的问题是,如果驱动程序在作业中途崩溃,作业将继续运行。如果驱动程序崩溃,有没有办法杀死启动的 MapReduce 作业?驱动程序是否崩溃不是我能控制的。我猜这需要客户端和作业定期相互轮询。 API 中是否有针对此的设置或方法?
最佳答案
您可以在 yarn webUI 中找到您的 applicationId (jobId),或者您可以输入 yarn application -list
在集群的 yarn 资源管理器节点中。您可以使用 kill
终止该 applicationId命令为:yarn application -kill <applicationId>
.我想这会解决你的问题。
关于java - 如果驱动程序崩溃,则终止 MapReduce 作业,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31551334/