json - 如何从副本加载 gzip 压缩的 json 数据

标签 json amazon-web-services amazon-s3 amazon-redshift

COPY tmp_data FROM 's3://mybucket/copy/batch_insert_data_1417072335118.json'  credentials 'aws_access_key_id=XXXXXXXXXXXXXXX;aws_secret_access_key=YyYYYyyYYYYYyyYYYYyyYYYYY' json gzip ACCEPTINVCHARS ' ' TRUNCATECOLUMNS TRIMBLANKS;

以上 COPY 命令无需 gzip 即可工作。但是现在我想使用 gzip 来加快这个过程。现在我正在将一个 gzip 压缩的 json 文件上传到 S3 存储桶中。但是上面的复制命令不起作用?知道如何从 Redshift 中的 COPY 加载 gzip 压缩的 json 文件吗?

最佳答案

您缺少 json_option ( http://docs.aws.amazon.com/redshift/latest/dg/r_COPY.html )。尝试将其设置为“自动”。请参阅下面的更正示例:

COPY tmp_data FROM 's3://mybucket/copy/batch_insert_data_1417072335118.json'  credentials 'aws_access_key_id=XXXXXXXXXXXXXXX;aws_secret_access_key=YyYYYyyYYYYYyyYYYYyyYYYYY' json 'AUTO' gzip ACCEPTINVCHARS ' ' TRUNCATECOLUMNS TRIMBLANKS;

关于json - 如何从副本加载 gzip 压缩的 json 数据,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/27165109/

相关文章:

ruby-on-rails - image_tag 在 aws beantalk 生产模式下不显示图像

python - 如何使用 Python 在 Lambda 中创建 CSV?

csv - 将 csv 文件从 s3 复制到 redshift 时出现问题

jquery - 将 JSON 数据添加到数据表

javascript - 使用 json 构建下拉列表

javascript - Json 数据未使用each append 到Meteor 模板中

amazon-web-services - Auto Scaling 组不会在启动配置更改时更新

javascript - 从 CORS 请求中捕获异步异常

java - Amazon S3 AWS 出于未知原因开始给出错误代码 400

javascript - 如何在 JavaScript 中读取外部本地 JSON 文件?