hadoop - 什么决定了 map() 将被调用多少次?

标签 hadoop mapreduce hadoop-yarn

我有一个文本文件和一个解析器,它将解析每一行并存储到我的 customSplitInput 中,我在自定义 FileInputFormat 阶段进行解析,因此我的拆分是自定义的。现在,我有 2 个拆分,每个拆分中包含我的数据列表。

但现在,我的映射器函数在同一拆分上被重复调用。我认为映射器函数只会根据您拥有的拆分数调用?

我不知道这是否适用,但我的自定义 InputSplit 为 getLength() 返回一个固定数字,为 getLocation() 返回一个空字符串数组。我不确定要为这些添加什么。

@Override
    public RecordReader<LongWritable, ArrayWritable> createRecordReader(
            InputSplit input, TaskAttemptContext taskContext)
            throws IOException, InterruptedException {
        logger.info(">>> Creating Record Reader");
        CustomRecordReader recordReader = new CustomRecordReader(
                (EntryInputSplit) input);
        return recordReader;
    }

最佳答案

map() 为您的 InputFormat 中(或被其引用)的 RecordReader 中的每条记录调用一次。例如,TextInputFormat 为输入中的每一行调用 map(),即使拆分中通常有很多行也是如此。

关于hadoop - 什么决定了 map() 将被调用多少次?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/29111653/

相关文章:

hadoop - 使用 Pig 加载 Hbase 表。 float 给出 FIELD_DISCARDED_TYPE_CONVERSION_FAILED

hadoop - 在集群上运行mapreduce程序时,输入路径被视为输出路径

hadoop - Hadoop问题,尝试在hadoop上运行基本WordCount MapReduce

java - Driver 中的 job.setOutputKeyClass 和 setOutputValueClass 与 reducer 的 context.write 方法不匹配,程序仍然运行正常。怎么办?

hadoop - 在失败或中止时重新运行 Spark 作业

java - 8021 连接异常失败 : java.net.ConnectException : Connection refused at org. apache.hadoop.ipc.Client.wrapException(Client.java:1095)

hadoop - 有没有办法防止在 Hive 中插入重复行?

hadoop - Spark / yarn : File does not exist on HDFS

hadoop - TEZ 作为工作级别的执行

apache-kafka - Spark Streaming 应用程序因 KafkaException : String exceeds the maximum size or with IllegalArgumentException 而失败