python - 什么是数据转储的最佳压缩算法

标签 python algorithm compression data-dump

我正在从我的站点创建数据转储供其他人下载和分析。每个转储都是一个巨大的 XML 文件。

我正在尝试找出最好的压缩算法:

  • 高效压缩(CPU 方面)
  • 制作尽可能小的文件
  • 相当普遍

我知道压缩的基础知识,但不知道哪种算法符合要求。我将使用 MySQL 和 Python 生成转储,因此我需要一些具有良好 Python 库的东西。

最佳答案

对于大多数情况,具有标准压缩级别的 GZIP 应该没问题。更高的压缩级别=更多的 CPU 时间。 BZ2 打包得更好,但也更慢。好吧,在 CPU 消耗/运行时间和压缩效率之间总是存在权衡……所有具有默认压缩级别的压缩都应该没问题。

关于python - 什么是数据转储的最佳压缩算法,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/6067836/

相关文章:

ruby - 对可能包含时间或距离的字符串进行排序

C#:使用 aforge.net 进行视频压缩

python - keras 层在每个 epoch 重新启动一部分权重

ruby-on-rails - 如何根据他们的评分将所有成员分成单独的公平团队?

python - 子进程:无法将 '_io.BufferedReader' 对象隐式转换为 str

c - 查找重复字符串的高效搜索算法

audio - SoX mp3 压缩中 "quality"选项的作用是什么?

javascript - 在缩小中使用 Javascript 闭包

python - 如何使用 WSL 读取 python 文件?

python - 什么是 tensorflow 哈希函数?