apache-spark - 如何在spark-shell中启用对spark的Hive支持(spark 2.1.1)

标签 apache-spark hive apache-spark-sql hortonworks-data-platform

我正在尝试在 Spark-Shell 中启用 Hive 对 Spark 对象的支持,但它不起作用。我正在使用 Hortonworks HDP。以下是我尝试启用 Hive 支持时得到的结果:

scala> val spark3 = SparkSession.builder.enableHiveSupport.getOrCreate
17/10/24 21:30:28 WARN SparkSession$Builder: Using an existing SparkSession; some configuration may not take effect.
spark3: org.apache.spark.sql.SparkSession = org.apache.spark.sql.SparkSession@22f8be7c

scala> spark3.catalog
res3: org.apache.spark.sql.catalog.Catalog = org.apache.spark.sql.internal.CatalogImpl@49c13ecd

最佳答案

在 HDP 中,spark-shell 已经创建了一个具有 Hive 支持的有效 SparkSession。

您收到警告说 getOrCreate 使用了现有 session

你可以试试

spark.sql("show tables").show()

此外,您使用的是 spark 而不是 spark3,因此不清楚 spark.catalog 将向您显示除该对象的 toString 信息

关于apache-spark - 如何在spark-shell中启用对spark的Hive支持(spark 2.1.1),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/46922306/

相关文章:

python - 聚合后使用 spark 从 hive 表读取和写入

apache-spark - 何时加载自定义 TableCatalog?

java - 从 Java 中的 spark 转换函数写入 HDFS 中的文件

python - 取消持久化(pyspark)中的所有数据帧

hadoop - Aster Data与Hadoop/Hive之间的区别

java - 如何修复 Hive 下运行的 geoip2 java 的 "java.lang.NoSuchMethodError"

hadoop - 窗口函数不适用于 Pyspark sqlcontext

apache-spark - 在 hive 或 impala 中计算表统计数据如何加速 Spark SQL 中的查询?

apache-spark - 如何确保RDD的每个分区都有一些数据

java - 运行 JavaKafkaWordCount.java 时出现错误