java - Hadoop Mapreduce 计数器

标签 java hadoop mapreduce bigdata hadoop2

关闭。这个问题需要更多 focused .它目前不接受答案。












想改进这个问题?更新问题,使其仅关注一个问题 editing this post .

6年前关闭。




Improve this question




谁能详细解释以下文件系统计数器的含义?

  • FILE_BYTES_READ
  • FILE_BYTES_WRITTEN
  • FILE_READ_OPS
  • FILE_LARGE_READ_OPS
  • FILE_WRITE_OPS
  • HDFS_BYTES_READ
  • HDFS_BYTES_WRITTEN
  • HDFS_READ_OPS
  • HDFS_LARGE_READ_OPS
  • HDFS_WRITE_OPS
  • 最佳答案

    FILE_BYTES_READ 本地文件系统读取的字节数 .假设所有 map 输入数据都来自 HDFS,那么在 map 阶段 FILE_BYTES_READ 应该为零。另一方面,reducer 的输入文件是从 map 端磁盘获取的 reduce 端本地磁盘上的数据。因此,FILE_BYTES_READ 表示 reducer 读取的总字节数。

    FILE_BYTES_WRITTEN 由两部分组成。第一部分来自映射器。所有映射器都会将中间输出溢出到磁盘。映射器写入磁盘的所有字节都将包含在 FILE_BYTES_WRITTEN 中。第二部分来自 reducer 。在 shuffle 阶段,所有的 reducer 都会从 mapper 中获取中间数据,并合并和溢出到 reducer 端的磁盘。 reducer 写入磁盘的所有字节也将包含在 FILE_BYTES_WRITTEN 中。

    HDFS_BYTES_READ 表示作业开始时映射器从 HDFS 读取的字节数。该数据不仅包括源文件的内容,还包括有关拆分的元数据。

    HDFS_BYTES_WRITTEN 表示写入 HDFS 的字节数。它是最终输出的字节数。

    读取操作 - 读取操作的数量,例如 listStatus、getFileBlockLocations、open 等。

    写操作 - 写入操作的数量,例如创建、追加、设置权限等。

    http://comphadoop.weebly.com/experiment-and-results.html

    关于java - Hadoop Mapreduce 计数器,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34036626/

    相关文章:

    hadoop - 分布式部署Hadoop程序

    javascript - 递归对象数组以附加属性子项计数

    java - 通过bitcoinj付款的正确方法

    java - 如何从一堆对象中总结一个属性的对象?

    java - 如何在 Java 中修剪网页的 HTML 以删除标签并仅显示文本内容?

    java - Java 9 模块系统是否支持可选依赖项?

    hadoop - map 中的输入/输出流减少链接

    java - 使用MapReduce执行组操作

    hadoop - 在 MapReduce 中读取 .tar.gz 文件时出现奇怪的输出

    java - mapreduce 复合键示例 - 未显示所需的输出