java - Hadoop - 作业统计

标签 java performance hadoop

我使用 hadoop 在我们的集群上运行 map-reduce 应用程序。这些工作每天大约需要 10 个小时才能完成。我想知道每项工作所花费的时间,以及最长工作所花费的时间等等,以便我可以优化这些工作。是否有任何插件或脚本可以执行此操作?

谢谢
巴拉

最佳答案

看看 http://:50030 或 http://:50030/jobhistory.jsp(在底部。

每个作业/任务/任务部分(映射、排序、缩减)都有一个分析。非常方便。您可以编写自己的日志 - 我只是“wget”所有分析页面,然后通过 awk 将它们放入粗略的统计数据中。

关于java - Hadoop - 作业统计,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/2414354/

相关文章:

java - result = result + (char)(c ^ d) 的作用是什么?

java - 无法解析方法 'startActivity(android.content.Intent); - 在安卓设备上打开 URL

java - 在 Cloud Bigtable SDK 中找不到类

许多异步 HTTP 调用的 JavaScript 事件处理性能

java - 检查java中两个对象之间的碰撞

python - 使用 Python 进行实时文本处理

eclipse - 如何阻止 Eclipse 上的 JPA Facet 始终更新?

bash - Hadoop fs -du-h 按大小对 M、G、T、P、E、Z、Y 进行排序

scala - 如何在 EMR 中运行的 MapReduce 作业中转义 JSON 禁止八进制前缀异常

hadoop - 增量导入没有主键的 Oracle 表到 HDFS