我想检查一个表 schemaname.tablename
使用 pysparkSQL
存在于 Hive 中.
Scala 中有一个选项 spark.catalog.tableExists("schemaname.tablename")
.但是,pySpark
无法提供相同的功能.
使用 PySpark
寻找一种快速且干净的方法来检查 Hive 表是否存在
最佳答案
在 PySpark 中,可以按如下方式完成:
spark.catalog._jcatalog.tableExists("schemaname.tablename")
关于python-2.7 - 如何使用 PySpark 检查 Hive 表是否存在,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/58067388/