amazon-web-services - CSV 从 Amazon Redshift 卸载到 S3 后,您能否删除 000 文件扩展名

标签 amazon-web-services amazon-s3 amazon-redshift

这个问题在这里已经有了答案:





Redshift unload's file name

(1 个回答)


4年前关闭。




我有将数据从 redshift 提取到 S3 的代码

UNLOAD ('

select sysdate

')

TO 's3://test-bucket/adretarget/test.csv' CREDENTIALS 'aws_access_key_id=ABCDE;aws_secret_access_key=12345' 
ALLOWOVERWRITE
delimiter ',' 
PARALLEL OFF ;

它工作正常,但是我所有的文件都以 .csv000 结尾,有没有办法排除 000 所以他们只是 end.csv

谢谢

最佳答案

    UNLOAD ('

select sysdate

')

TO 's3://test-bucket/adretarget/test' CREDENTIALS 'aws_access_key_id=ABCDE;aws_secret_access_key=12345' 
ALLOWOVERWRITE
delimiter ',' 
PARALLEL OFF ;

无需在卸载文件名中添加 .csv 扩展名。您可以只提及“测试”,它会卸载没有扩展名的数据,但文件仍将以逗号分隔,即 csv。

关于amazon-web-services - CSV 从 Amazon Redshift 卸载到 S3 后,您能否删除 000 文件扩展名,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41037479/

相关文章:

node.js - 删除 dynamodb 中的嵌套属性

R - 安装 text2vec Ubuntu 虚拟机

amazon-web-services - 从 EKS 集群访问 ElastiCache

php - 从 s3 存储桶中删除文件

javascript - s3.putObject 返回 400 bad request 错误

amazon-web-services - 如何循环访问 CloudFormation 模板中的值

amazon-web-services - 按计划对每个 DynamoDb 条目运行 lambda?

mysql - 亚马逊 Redshift 增量管道

amazon-redshift - Amazon Redshift VACUUM 是按架构还是按数据库运行?

pyspark - 在pyspark中以追加模式写入redshift