我一直在阅读有关Map Reduce的大量文章,但遇到以下问题,但似乎找不到答案:
a b c b c d b c
So, the word-count mapper will generate key-value pairs as:
a 1 b 1 c 1 b 1 c 1 d 1 b 1 c 1
And now it will pass these key value pairs to the next stage, right? I have the following questions: - Is this next stage the reducer? - Can a mapper send the first b 1 and second b 1 tuples to different nodes? If yes, then do the counts get aggregated in the next phase? If no, then why not? Wouldn't that be counter intutive?
最佳答案
(因此请回答您的问题
映射器可以将第一个b 1和第二个b 1元组发送到不同的节点---是NO)
同样,不能说整个处理过程很昂贵。
由于Map-Reduce范式可以处理/解决/分析几乎不可能由单台机器处理的问题(这就是所谓的BIG数据的原因)。
现在有了MapReduce,它就可以与商品(价格便宜一些)的硬件兼容;这就是为什么它被广泛接受。
关于hadoop - 有关 map 减少的概念性问题,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/22417895/