正在从 S3 位置将 Parquet 文件加载到雪花表。这就是我正在做的事情:
- 已创建目标表
CREATE TABLE myschema.target_table(
col1 DATE,
col2 VARCHAR);
- 使用以下命令创建阶段表
CREATE OR REPLACE TEMPORARY STAGE myschema.stage_table
url = 's3://mybucket/myfolder1/'
storage_integration = My_int
fileformat = (type = 'parquet')
- 从阶段表加载目标表
COPY INTO myschema.target_table FROM(
SELECT $1:col1::date,
$1:col2:varchar
FROM myschema.stage_table)
这工作正常,我的问题是,我有 10 个表和 10 个列。有没有办法优化第 3 步,我不必显式提及列名,这样代码就会变得通用:
COPY INTO myschema.target_table FROM(
SELECT *
FROM myschema.stage_table)
最佳答案
你尝试过吗 MATCH_BY_COLUMN_NAME = CASE_SENSITIVE |不区分大小写 |无
文档:https://docs.snowflake.com/en/sql-reference/sql/copy-into-table.html#type-parquet
关于snowflake-cloud-data-platform - 雪花 Parquet 加载模式生成,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/63929910/