hadoop MapReduce 随机播放错误 : Exceeded MAX_FAILED_UNIQUE_FETCHES; bailing-out

标签 hadoop mapreduce hdfs

我在尝试使用多个输入文件运行 MapReduce 作业时遇到以下错误。尽管我可以只使用一个输入文件来运行 MapReduce 作业。 我浏览了一些帖子,几乎每个人都说存在防火墙问题或未在/etc/hosts 文件中正确设置主机名。 即使是这种情况,无论输入是单个文件还是目录(多个文件),我的 MapReduce 作业都会失败

下面是控制台的输出。

    INFO input.FileInputFormat: Total input paths to process : 2
WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
WARN snappy.LoadSnappy: Snappy native library not loaded
INFO mapred.JobClient: Running job: job_201505201700_0005
INFO mapred.JobClient:  map 0% reduce 0%
INFO mapred.JobClient:  map 50% reduce 0%
INFO mapred.JobClient:  map 100% reduce 0%
INFO mapred.JobClient:  map 100% reduce 16%

INFO mapred.JobClient:  map 100% reduce 0%
INFO mapred.JobClient: Task Id : attempt_201505201700_0005_r_000000_0, Status : FAILED
    Shuffle Error: Exceeded MAX_FAILED_UNIQUE_FETCHES; bailing-out.
WARN mapred.JobClient: Error reading task outputAMR-DEV02.local
WARN mapred.JobClient: Error reading task outputAMR-DEV02.local
INFO mapred.JobClient:  map 100% reduce 16%
INFO mapred.JobClient:  map 100% reduce 0%
INFO mapred.JobClient: Task Id : attempt_201505201700_0005_r_000000_1, Status : FAILED
    Shuffle Error: Exceeded MAX_FAILED_UNIQUE_FETCHES; bailing-out.
WARN mapred.JobClient: Error reading task outputEmbeddedQASrv.local
WARN mapred.JobClient: Error reading task outputEmbeddedQASrv.local
INFO mapred.JobClient:  map 100% reduce 16%

注意。 EmbeddedQASrv.local(ip address. 192.168.115.80) 和AMR-DEV02.local(ip address. 192.168.115.79) 是我的从节点主机名。

我的 Hadoop 集群由 1 个主节点和 2 个从节点组成。

这是我从控制台运行的命令。(emp_dept_data 是一个包含 empData 和 deptData 文件的目录)

hadoop jar testdata/joindevice.jar JoinDevice emp_dept_data output15

但是,如果我运行此命令,MapReduce 作业会成功(单个文件作为输入)

hadoop jar testdata/joindevice.jar JoinDevice emp_dept_data/empData output16

这是我的/etc/hosts 文件条目设置主节点。然而,相同的条目也被复制到我的从属节点。

127.0.0.1               amr-dev01.local amr-dev01 localhost
::1             localhost6.localdomain6 localhost6
#Hadoop Configurations
192.168.115.78    master
192.168.115.79    slave01
192.168.115.80     slave02

我不知道哪里出了问题,也不知道在哪里检查确切的根本原因。

最佳答案

实际问题出在/etc/hosts 文件上。我评论了我的本地主机配置。 amr-dev01.local amr-dev01 本地主机 而不是指定不同的名称,如 master、slave01、slave02...我使用了相同的主机名

192.168.115.78 amr-dev01 192.168.115.79 amr-dev02

关于hadoop MapReduce 随机播放错误 : Exceeded MAX_FAILED_UNIQUE_FETCHES; bailing-out,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30352446/

相关文章:

hadoop - 从 hdfs 加载文件 csv

hadoop - 如何将 hadoop 数据复制到 SOLR

android - 如何实现一个Android应用程序来连接服务器

hadoop - 单个hadoop集群中的多个环境

hadoop - 为什么我不能在 Pig Latin 中正确使用消歧运算符

hadoop - “Apache Oozie actions are asynchronous”的意思?

caching - Hadoop——数据 block 缓存技术

java - 分布式缓存和性能 Hadoop

hadoop - Oozie 作业被挂起并且未到达 YARN

sorting - Map Reduce Programming中reducer中洗牌和排序阶段的目的是什么?