我正在尝试删除我在 Databricks 平台中使用 Pyspark 创建的目标雪花表。
各位大佬帮忙,我没找到解决办法。
最佳答案
除了查询之外,还可以使用Utils对象的runQuery()方法执行DDL/DML SQL语句,例如:
var sfOptions = Map(
"sfURL" -> "<account_name>.snowflakecomputing.com",
"sfAccount" -> "<account_name>",
"sfUser" -> "<user_name>",
"sfPassword" -> "<password>",
"sfDatabase" -> "<database>",
"sfSchema" -> "<schema>",
"sfWarehouse" -> "<warehouse>",
)
Utils.runQuery(sfOptions, "DROP TABLE MY_TABLE")
关于apache-spark - 如何使用 Spark/PySpark 删除雪花目标表,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/59263303/