java - Hadoop 中失败文件的重试处理

标签 java hadoop file-io mapreduce bigdata

我有一个 Hadoop Map-Reduce 程序,它只是一个简单的文件处理代码。每个映射器都有一个文件作为输入。

我的 Reducer 部分是空的。所有的工作都在 map() 方法中完成。

现在我面临的问题是-

如果映射器中的文件处理操作失败,我无法告诉我的 Hadoop 作业等待几秒钟,然后从同一个失败的文件重试并继续前进。

有什么方法/配置可以这样指定吗?

如果有人遇到过这样的用例,请告诉我。

最佳答案

我认为您应该尝试根据您的逻辑使用多个输出将错误记录写入不同的文件。对于多个输出,您可以点击此链接:Multiple output link

如果您采用这种方法,您可以根据 map 方法中的逻辑过滤掉不良记录和良好记录,并且您的工作不会失败。使用多个输出,您可以将错误记录写入单独的文件并在以后对这些文件进行分析。使用这种方法,您可以确保您的工作不会因为不良记录而失败,并且您的良好记录得到正确处理。

您也可以查看此链接 Counters to detect badrecord弄清楚你实际有多少不良记录。希望对您有所帮助

关于java - Hadoop 中失败文件的重试处理,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/24678296/

相关文章:

java - "request"和 "response"变量或值是在 Java EE 中预定义的吗?

java - 如何在 LibGDX 中的按钮上切换 "over"样式?

hadoop - Hadoop:Ambari未显示

perl - 如何删除文件中的第一行?

C将文件读入二维数组

python - 使用 Python 的内置 .csv 模块编写

java - 对于过去测验的每个循环

java - felix 上的 OSGI 类转换异常

hadoop - Hadoop 2中的作业跟踪器

hadoop - 在 mapreduce 中使用键值对的重要性是什么?