我刚刚开始使用 Hadoop。我看到 Spark 是一个号称比 MapReduce 更快的执行引擎,所以我想尝试一下。
据我了解,MapReduce 也是一个执行引擎。那么为什么 Spark 可以选择下载为 Mapreduce 4.x 构建的 Spark?我的意思是我不明白这 2 个如何放在同一个堆栈中?
如有任何帮助,我们将不胜感激!
谢谢!
最佳答案
why does Spark has an option to download Spark built for Mapreduce 4.x?
事实并非如此。它可以选择下载为 MapR 4.x 构建的 spark。 MapR is company开发 Hadoop 的分布。与Hadoop的mapreduce处理框架完全无关。
关于hadoop - 为什么 Spark 可以选择下载预构建的 MapReduce 4.x?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/27427173/