java - 如果驱动程序崩溃,则终止 MapReduce 作业

标签 java hadoop mapreduce hadoop2

我有一个驱动程序,它在 Hadoop 2.4.0 上使用 org.apache.hadoop.mapreduce.Job.waitForCompletion(boolean) 启动 MapReduce 作业。我遇到的问题是,如果驱动程序在作业中途崩溃,作业将继续运行。如果驱动程序崩溃,有没有办法杀死启动的 MapReduce 作业?驱动程序是否崩溃不是我能控制的。我猜这需要客户端和作业定期相互轮询。 API 中是否有针对此的设置或方法?

最佳答案

您可以在 yarn webUI 中找到您的 applicationId (jobId),或者您可以输入 yarn application -list在集群的 yarn 资源管理器节点中。您可以使用 kill 终止该 applicationId命令为:yarn application -kill <applicationId> .我想这会解决你的问题。

关于java - 如果驱动程序崩溃,则终止 MapReduce 作业,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31551334/

相关文章:

java - 使用泛型避免未经检查的转换

hadoop - pig 转储不显示所有数字

hadoop - 通过 spark job 创建 hive 表

hadoop - MultipleOutputs 具有不同的 FileOutputFormat

hadoop - 是否在MapReduce中记录有关Hadoop中不同类型数据集的定义?

java - 如何使用 spring bean 执行方法

java - 尝试更改 Java 类的一部分

java - 检测 HTML 页面之间的差异百分比

hadoop - 使用Hadoop Map reduce处理和拆分大数据?

hadoop 提示尝试覆盖非空目标目录