我正在用 bash 编写一个自定义备份脚本供个人使用。目标是通过 tar/gzip 压缩目录的内容,拆分压缩存档,然后将各部分上传到 AWS S3。
几个月前我第一次尝试编写这个脚本时,我能够通过类似的方式让它工作:
tar -czf - /mnt/STORAGE_0/dir_to_backup | split -b 100M -d -a 4 - /mnt/SCRATCH/backup.tgz.part
aws s3 sync /mnt/SCRATCH/ s3://backups/ --delete
rm /mnt/SCRATCH/*
这对我的目的来说效果很好,但需要 /mnt/SCRATCH
有足够的磁盘空间来存储压缩目录。现在我想改进这个脚本,使其不必依赖于 /mnt/SCRATCH
中有足够的空间,并做了一些研究。我最终得到了类似的东西:
tar -czf - /mnt/STORAGE_0/dir_to_backup | split -b 100M -d -a 4 --filter "aws s3 cp - s3://backups/backup.tgz.part" -
这几乎可以工作,但我的 S3 存储桶上的目标文件名不是动态的,而且它似乎只是在运行时多次覆盖 backup.tgz.part
文件。最终结果只是一个 100MB 的文件,而预期的几个 100MB 文件的结尾如 .part0001
。
任何指导将不胜感激。谢谢!
最佳答案
当使用split
时,您可以使用环境变量$FILE
来获取生成的文件名。
参见 split man page :
--filter=COMMAND
write to shell COMMAND; file name is $FILE
对于您的用例,您可以使用如下内容:
--filter 'aws s3 cp - s3://backups/backup.tgz.part$FILE'
(需要单引号,否则会立即进行环境变量替换)
这将在 aws 上生成以下文件名:
backup.tgz.partx0000
backup.tgz.partx0001
backup.tgz.partx0002
...
完整示例:
tar -czf - /mnt/STORAGE_0/dir_to_backup | split -b 100M -d -a 4 --filter 'aws s3 cp - s3://backups/backup.tgz.part$FILE' -
关于bash - 如何将 tar 压缩操作通过管道传输到 aws s3 cp?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/57079147/