java - Hadoop 作业不会被杀死

标签 java apache hadoop jobs

我正试图结束我的 Hadoop 工作。我运行命令 hadoop job -kill 。 它以 Killed job 响应

由于某种原因,作业没有被终止,它仍然显示在作业列表中。

我该如何解决这个问题?有什么建议么?我用谷歌搜索并找到了死胡同。

最佳答案

尝试 hadoop job -kill <job_id>多次。它对我有用。

关于java - Hadoop 作业不会被杀死,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/19945104/

相关文章:

java - 计算单元测试运行期间发生的 gc 次数

linux - 如何通过 svn post-commit hook 运行 svn update

linux - 添加到 Apache 上可用的站点

java - HBase 映射减少 : write into HBase in Reducer

java - spring 3 应用程序中的静态实用程序类

java - JSP 数据到 Servlet 使用 EL

security - 为什么 Apache 需要 SSLCertificateKeyFile?

java - 如果值为空,如何忽略 Map-Reduce 中的键值对?

ubuntu - ubuntu12.10上的hadoop安装

java - 代理仅忽略 httpS 请求的身份验证 header