Compression 归档SQL转储更好吗?

Compression 归档SQL转储更好吗?,compression,archive,Compression,Archive,我正在使用下面的脚本转储我的SQL db。 我的网站不经常使用,所以数据库在几天内保持不变。唯一的区别是最后一行是转储日期。每个转储文件大约400k未压缩,107kb为.sql.gz文件。我决定用7z和rar将它们压缩为一个坚实的归档文件。在这两种情况下,我得到950kb的32个文件。我觉得我应该得到更好的压缩。怎么做 #!/bin/bash cd /home/mybackup/mysqldumps y=$(date +%Y) m=$(date +%m) d=$(date +%d) h=$(da

我正在使用下面的脚本转储我的SQL db。 我的网站不经常使用,所以数据库在几天内保持不变。唯一的区别是最后一行是转储日期。每个转储文件大约400k未压缩,107kb为.sql.gz文件。我决定用7z和rar将它们压缩为一个坚实的归档文件。在这两种情况下,我得到950kb的32个文件。我觉得我应该得到更好的压缩。怎么做

#!/bin/bash
cd /home/mybackup/mysqldumps
y=$(date +%Y)
m=$(date +%m)
d=$(date +%d)
h=$(date +%H)
mkdir $y
cd $y
mkdir $m
cd $m
mysqldump --all-databases --single-transaction --flush-logs | gzip > "$y $m $d $h.sql.gz"
chmod 400 "$y $m $d $h.sql.gz"

在这个时代,950k只是一个很小的存储空间。如果你选择一个简单的祖父、父亲、儿子备份轮换,那么一年的备份量大约为22Mb。或五个或六个MP3文件作为比较


即使您使用拨号(或必要时使用GPRS/1xRTT),也需要传输的数据量仍然可以控制

将所有.sql.gz解压缩为常规sql文件。压缩文件夹。将文件压缩为.sql.gz时,结果为88kb。这是巨大的节约。

尺寸不重要。只是数字显示它压缩不好。感觉很奇怪。这不是我们都在读堆栈溢出的原因吗?我是AmazonEC2的忠实粉丝,我的备份计划是拍摄整个文件系统的快照,每月只需花费几美分就可以保存下来。懒惰和高效。如果您不想/无法切换基础架构,请查看使用S3进行存储之类的东西。很不错的。