java - 在 S3 中上传输入流 block 后无法解压缩 gzip 压缩文件

标签 java amazon-web-services spring-boot amazon-s3 gzip

我想采用与分段 uploader 类似的方式获取输入流并将 gzip 压缩的部分上传到 s3。 但是,我想将各个文件部分存储在 S3 中,而不是将这些部分转换为单个文件。

为此,我创建了以下方法。 但是,当我尝试 gzip 解压缩每个部分时,gzip 会抛出错误并显示:gzip: file_part_2.log.gz: not in gzip format

我不确定我是否正确压缩了每个部分?

如果我重新初始化gzipoutputstream:gzip = new GZIPOutputStream(baos);并在重置字节数组输出流后设置gzip.finish() baos.reset(); 然后我就可以解压缩每个部分。不知道为什么我需要这样做,gzipoutputstream 有类似的 reset 吗?

public void upload(String bucket, String key, InputStream is, int partSize) throws Exception
{
    String row;
    BufferedReader br = new BufferedReader(new InputStreamReader(is, ENCODING));
    ByteArrayOutputStream baos = new ByteArrayOutputStream();
    GZIPOutputStream gzip = new GZIPOutputStream(baos);

    int partCounter = 0;
    int lineCounter = 0;
    while ((row = br.readLine()) != null) {
        if (baos.size() >= partSize) {
            partCounter = this.uploadChunk(bucket, key, baos, partCounter);

            baos.reset();
        }else if(!row.equals("")){
            row += '\n';
            gzip.write(row.getBytes(ENCODING));
            lineCounter++;
        }
    }

    gzip.finish();
    br.close();
    baos.close();

    if(lineCounter == 0){
        throw new Exception("Aborting upload, file contents is empty!");
    }

    //Final chunk
    if (baos.size() > 0) {
        this.uploadChunk(bucket, key, baos, partCounter);
    }
}

private int uploadChunk(String bucket, String key, ByteArrayOutputStream baos, int partCounter)
{
    ObjectMetadata metaData = new ObjectMetadata();
    metaData.setContentLength(baos.size());

    String[] path = key.split("/");
    String[] filename = path[path.length-1].split("\\.");

    filename[0] = filename[0]+"_part_"+partCounter;

    path[path.length-1] = String.join(".", filename);

    amazonS3.putObject(
            bucket,
            String.join("/", path),
            new ByteArrayInputStream(baos.toByteArray()),
            metaData
    );

    log.info("Upload chunk {}, size: {}", partCounter, baos.size());

    return partCounter+1;
}

最佳答案

问题是您对所有 block 使用单个GZipOutputStream。因此,您实际上正在编写 GZipped 文件的各个部分,必须重新组合这些文件才能发挥作用。

对现有代码进行最小的更改:

if (baos.size() >= partSize) {
    gzip.close(); 
    partCounter = this.uploadChunk(bucket, key, baos, partCounter);
    baos = baos = new ByteArrayOutputStream();
    gzip = new GZIPOutputStream(baos);
}

您需要在循环结束时执行相同的操作。另外,如果行计数器为 0,您不应该抛出异常:文件完全有可能被精确地分成一定数量的 block 。

为了改进代码,我会将 GZIPOutputStream 包装在 OutputStreamWriterBufferedWriter 中,这样您就不需要这样做明确的字符串字节转换。

最后,不要使用ByteArrayOutputStream.reset()。与仅仅创建一个新流相比,它不会为您节省任何东西,并且如果您忘记重置,则可能会出现错误。

关于java - 在 S3 中上传输入流 block 后无法解压缩 gzip 压缩文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/54459923/

相关文章:

java - NoNodeAvailableException [没有已配置的节点可用:[{#transport#-1} {OqtopIzTQmOjjLBzr2G_JA} {127.0.0.1} {127.0.0.1:9300}]]

amazon-web-services - 无法从一个 AWS 实例远程登录到另一个实例(以解决 master_not_discovered_exception)

java - 使用 Spring LDAP 在 Java 中进行身份验证

postgresql - 连接未关闭(HikariCP、Postgres)

java - Spring boot - 使用配置文件时不读取默认属性文件

java - Android 应用程序未收到位置信息

java - hibernate/jpa Autowire 注释产生 Nullpointer 异常错误

java - 将大文件上传到 Amazon S3 时出现问题

java - 谷歌开发人员地理图表和 DAO 对象

python - 如何将 AWS-Fargate 用作 python 脚本