Apache在使用gzip或zip备份网站时挂起/超时?

Apache在使用gzip或zip备份网站时挂起/超时?,apache,process,timeout,gzip,Apache,Process,Timeout,Gzip,我在专用的Ubuntu网络服务器上运行一些网站。如果我没记错的话,它有8个内核,16GB内存,并且作为64位Ubuntu运行。内容和文件可以快速传递到web浏览器。一切都像一场梦。。。直到我运行gzip或zip备份一个8.6GB大小的网站 当运行gzip或zip时,Apache停止交付内容。在压缩过程完成之前,将传递内部服务器错误消息。在这个过程中,我可以毫不延迟地通过ssh登录并运行top命令。我可以看到zip进程占用了大约50%的CPU(我猜这是单个CPU的50%,不是全部8?) 起初,我认

我在专用的Ubuntu网络服务器上运行一些网站。如果我没记错的话,它有8个内核,16GB内存,并且作为64位Ubuntu运行。内容和文件可以快速传递到web浏览器。一切都像一场梦。。。直到我运行gzip或zip备份一个8.6GB大小的网站

当运行gzip或zip时,Apache停止交付内容。在压缩过程完成之前,将传递内部服务器错误消息。在这个过程中,我可以毫不延迟地通过ssh登录并运行top命令。我可以看到zip进程占用了大约50%的CPU(我猜这是单个CPU的50%,不是全部8?)

起初,我认为这可能是一个日志问题,Apache日志越来越失控,不想被弄乱。但日志文件低于5MB,并且在达到5MB时会进行旋转。当前的另一种想法是,Apache只希望在一个CPU上运行,而让任何其他进程都能发挥主导作用。现在还不知道该去哪里解决这个问题

您对如何解决此问题有何想法?备份时删除所有站点不是一个选项,而且我似乎无法在本地计算机上重现此问题(当然,这是不同的硬件和配置)。我希望这个问题不要含糊不清。我很乐意根据需要提供更多细节


提前感谢您的智慧

我建议在“ionice”命令下运行备份脚本。它将有助于防止因I/O导致httpd饥饿。

我将把这一点标记为答案,因为这支持了我在其他地方发现的结果。我仍然有一些问题,但事实证明这可能与硬盘速度有关。下一步可能是升级硬盘。在那之前,我计划在另一台服务器上使用rsync来备份内容,以便快速访问。