apache-spark - SPARK中提供了HIVE表,但未在Hive CLI中显示

标签 apache-spark hadoop hive apache-spark-sql apache-zeppelin

这个问题可能是this one的重复项,但给出的答案并不令人满意。

我在Zeppelin上运行了以下简单代码:
(与pyspark CLI相同的场景)

%spark2.pyspark
from pyspark.sql import HiveContext
sqlContext = HiveContext(sc)

df = sqlContext.read.format("csv").option("header", "false").option("mode", "DROPMALFORMED").load("/data/data1.csv")
df.write.mode('overwrite').saveAsTable("default.hive_spark");

然后 :
%spark2.pyspark
sqlDF = spark.sql("show tables")
sqlDF.show()

表明 :
+--------+----------------+-----------+
|database|       tableName|isTemporary|
+--------+----------------+-----------+
| default|      hive_spark|      false|
+--------+----------------+-----------+

但是当我登录到HIVE CLI(user:hive)时,此表未显示:
0: jdbc:hive2://ip-xxx.eu-west-3.com>USE default;
0: jdbc:hive2://ip-xxx.eu-west-3.com>SHOW TABLES;

+-----------+
| tab_name  |
+-----------+
| hive_test |
+-----------+

我试过了
sqlContext.uncacheTable("default.hive_spark")

我很困惑。

最佳答案

由于您正在使用hive2,因此请使用HiveWareHouseConnector

关于apache-spark - SPARK中提供了HIVE表,但未在Hive CLI中显示,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/52845448/

相关文章:

hadoop - 将本地参数传递给 Hadoop 脚本

hadoop - 在 Yarn 客户端上运行 Spark

apache-spark - 分析异常 : u'Cannot resolve column name

Hadoop管道问题

hadoop - Hadoop 中的容错

amazon-web-services - 如何在Amazon Spark集群上启动4个实例?

apache-spark - 为什么作业失败并显示 "No space left on device",但 df 却另有说法?

scala - 如何在 Spark/Scala 中使用窗口函数使用 countDistinct?

csv - 使用 csv 文件进行 Hive 搜索

hadoop - 如何替换配置单元中的字符?