hadoop - 为什么 Spark 可以选择下载预构建的 MapReduce 4.x?

标签 hadoop mapreduce apache-spark

我刚刚开始使用 Hadoop。我看到 Spark 是一个号称比 MapReduce 更快的执行引擎,所以我想尝试一下。

据我了解,MapReduce 也是一个执行引擎。那么为什么 Spark 可以选择下载为 Mapreduce 4.x 构建的 Spark?我的意思是我不明白这 2 个如何放在同一个堆栈中?

如有任何帮助,我们将不胜感激!

谢谢!

最佳答案

why does Spark has an option to download Spark built for Mapreduce 4.x?

事实并非如此。它可以选择下载为 MapR 4.x 构建的 spark。 MapR is company开发 Hadoop 的分布。与Hadoop的mapreduce处理框架完全无关。

关于hadoop - 为什么 Spark 可以选择下载预构建的 MapReduce 4.x?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/27427173/

相关文章:

hadoop - 如何映射减少顺序数据,其中 Kn+1->Vn+1 = f(Kn->Vn)?

apache-spark - 为什么Spark应用程序未在所有节点上运行

hadoop - 如何从客户端节点运行hadoop balancer?

windows - 在 Windows 7 机器上进行 Hadoop 开发是否有很好的在线教程?

hadoop - Apache Ranger 2.0.0-SNAPSHOT:无法安装和配置HDFS插件

hadoop - Yarn 给现有的 map reduce 带来了什么额外的好处?

java - 无法执行基本的 Hadoop Mapreduce Wordcount 示例

hadoop - Parquet-MR AvroParquetWriter - 如何将数据转换为 Parquet(使用特定映射)

Scala Spark 数据框保持前导零

java - 将 jdbc 连接传递给 Spark 读取