hadoop - 如何更改Hadoop中数据 block 的大小?

标签 hadoop mapreduce

我正在使用新的Hadoop API,并且由于无法明确指定映射器的数量(与旧的API不同),我需要更改数据块的大小,以便可以控制映射器的数量。如何更改代码中拆分的数据的默认大小?

最佳答案

映射器的数量由(文件)拆分确定
拆分大小由所使用的InputFormat确定。
mapred.max.split.size参数将让您定义分割大小。

关于hadoop - 如何更改Hadoop中数据 block 的大小?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/22058683/

相关文章:

hadoop - Pig JobStats 无法找到输出文件警告

MongoDB - 锁定如何为 Map Reduce 工作?

java - 如何将外部库添加到 Hadoop map-reduce 任务

java - 如何阅读句子而不是行与 WordCount MapReduce 教程

hadoop - Apache Sentry 引用中的 'limited to Hive table data' 是什么意思?

hadoop - 将日志文件kafka移动到hadoop

hadoop - apache pig中一列的最大值

hadoop - Hadoop WikipediaPageInputFormat

mapreduce - 可用于使用 Hadoop/MapReduce 框架的集群

hadoop nullpinter 异常