COPY tmp_data FROM 's3://mybucket/copy/batch_insert_data_1417072335118.json' credentials 'aws_access_key_id=XXXXXXXXXXXXXXX;aws_secret_access_key=YyYYYyyYYYYYyyYYYYyyYYYYY' json gzip ACCEPTINVCHARS ' ' TRUNCATECOLUMNS TRIMBLANKS;
以上 COPY 命令无需 gzip 即可工作。但是现在我想使用 gzip 来加快这个过程。现在我正在将一个 gzip 压缩的 json 文件上传到 S3 存储桶中。但是上面的复制命令不起作用?知道如何从 Redshift 中的 COPY 加载 gzip 压缩的 json 文件吗?
最佳答案
您缺少 json_option ( http://docs.aws.amazon.com/redshift/latest/dg/r_COPY.html )。尝试将其设置为“自动”。请参阅下面的更正示例:
COPY tmp_data FROM 's3://mybucket/copy/batch_insert_data_1417072335118.json' credentials 'aws_access_key_id=XXXXXXXXXXXXXXX;aws_secret_access_key=YyYYYyyYYYYYyyYYYYyyYYYYY' json 'AUTO' gzip ACCEPTINVCHARS ' ' TRUNCATECOLUMNS TRIMBLANKS;
关于json - 如何从副本加载 gzip 压缩的 json 数据,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/27165109/