apache-spark - 是否可以通过spark 2.4使用Hadoop 3.x和Hive 3.x?

标签 apache-spark hadoop hive backwards-compatibility hadoop3

我们使用spark 2.4.0连接到Hadoop 2.7集群并从Hive Metastore 2.3版本进行查询。但集群管理团队已决定升级到 Hadoop 3.x 和 Hive 3.x。我们还无法迁移到与 Hadoop 3 和 Hive 3 兼容的 Spark 3,因为我们无法测试是否有任何问题。

是否有可能坚持使用 Spark 2.4.x 版本并仍然能够使用 Hadoop 3 和 Hive 3?

我知道向后移植是一种选择,如果您能指出我的方向,那就太好了。

最佳答案

您可以使用 Hadoop 3.1 profile 编译 Spark 2.4而不是依赖默认版本。您需要使用 hadoop-3.1 配置文件作为 described in documentation关于构建 Spark,类似于:

./build/mvn -Pyarn -Phadoop-3.1 -DskipTests clean package

关于apache-spark - 是否可以通过spark 2.4使用Hadoop 3.x和Hive 3.x?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/62754172/

相关文章:

hadoop - Hive on Tez 中的 ORDER BY 语句抛出 OOM 异常

Hadoop HDFS : Read sequence files that are being written

mysql - 在 Hadoop 中使用 apache Airflow 配置 MySql 时遇到问题

hadoop - 声明 hivevar 时出现 Hive 错误

java - Spark : Two SparkContexts in a single Application Best Practice

scala - saveTocassandra 找不到参数 rwf 的隐式值

scala - 如何在 Spark Streaming Scala 中对 HBase 进行单元测试

apache-spark - 如果驱动程序崩溃会发生什么?

hadoop - 如何在 hadoop 中查看标准输出?

hql - 连接两个表并根据分区键进行过滤的这两个 Hive 查询是否存在性能差异?