apache-spark - 如何使用 Spark/PySpark 删除雪花目标表

标签 apache-spark hadoop pyspark apache-spark-sql snowflake-cloud-data-platform

我正在尝试删除我在 Databricks 平台中使用 Pyspark 创建的目标雪花表。

各位大佬帮忙,我没找到解决办法。

最佳答案

除了查询之外,还可以使用Utils对象的runQuery()方法执行DDL/DML SQL语句,例如:

var sfOptions = Map(
    "sfURL" -> "<account_name>.snowflakecomputing.com",
    "sfAccount" -> "<account_name>",
    "sfUser" -> "<user_name>",
    "sfPassword" -> "<password>",
    "sfDatabase" -> "<database>",
    "sfSchema" -> "<schema>",
    "sfWarehouse" -> "<warehouse>",
    )
Utils.runQuery(sfOptions, "DROP TABLE MY_TABLE")

Snowflake DDL spark

关于apache-spark - 如何使用 Spark/PySpark 删除雪花目标表,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/59263303/

相关文章:

apache-spark - 在 Pyspark 中将时间戳更改为 UTC 格式

pyspark - 数据处理 : Jupyter pyspark notebook unable to import graphframes package

dataframe - 具有多种数据类型的 Pyspark SQL 数据框映射

python - 如何使用PySpark获取最高tf-idf对应的单词?

scala - 如何在 Spark 中使用 CSV 文件中的 NOT IN

python - 在 pyspark-2.3 中使用 python 内置函数 **abs** 时出错

apache-spark - 如何使 groovysh 与 apache Spark 一起工作

windows - webHDFS curl-在Windows上协商

hadoop - hive 问题与更新

hadoop - 具有多个文件的WholeFileInputFormat输入