scala - 使用 enableHiveSupport 创建临时 SparkSession

标签 scala hadoop apache-spark hive mapr

我正在研究连接到 Hadoop 中允许动态数据类型连接的数据。

我需要能够连接到 Hive Thrift 服务器 A,提取一些数据,然后连接到 Hive Thrift 服务器 B 并提取更多数据。

据我了解,enableHiveSupport 需要在初始 SparkSession.builder 上设置。有没有办法在事后添加/更改节俭连接?

我遇到的唯一可能的解决方案是使用 newSession():SparkSession 但是我不确定这是否是我正在寻找的正确解决方案。

我正在使用 Spark 2.1、Hadoop 2.7

最佳答案

根据Spark 权威指南一书,“创建 [SparkConf] 后,SparkConf 对于特定的 Spark 应用程序是不可变的”Chambers 和 Zaharia(2018 年,第 276 页)

关于scala - 使用 enableHiveSupport 创建临时 SparkSession,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48873534/

相关文章:

python - 将 RDD 划分为长度为 n 的元组

scala - 迭代 RDD 并更新可变集合返回一个空集合

scala - 使用密封特征作为 map 的键

join - hadoop pig自连接性能

hadoop - 如何使用hdfs分割用户ID?

python - 在 PySpark 中使用 toDF() 函数将 RDD 转换为 Dataframe 时的奇怪行为

scala - 在 Spark GraphX 中寻找最大边权重

java - 透明远程处理和位置透明之间的区别

mysql - 如何将数据从csv加载到Spark中的mysql数据库?

hadoop - 在 hive 中查找组合计数