我们目前在 10 节点集群上使用 hadoop-2.8.0
,并计划升级到最新的 hadoop-3.0.0
。
我想知道如果我们将hadoop-3.0.0
与旧版本的Spark和其他组件(如Hive、Pig和Sqoop)一起使用,是否会出现任何问题。
最佳答案
最新的Hive版本不支持Hadoop3.0,看来以后Hive可能会建立在Spark或者其他计算引擎上。
关于hadoop - Hadoop-3.0.0 与旧版本的 Hive、Pig、Sqoop 和 Spark 的兼容性如何,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47920005/