Php 完全保存网页(使用图像、css等),更像web存档

Php 完全保存网页(使用图像、css等),更像web存档,php,mhtml,Php,Mhtml,我想用PHP制作一个网页的本地副本。这可以是一个web存档,如mht,也可以只是一个带有图像和css的html。结果应该与您在浏览器中按“另存为”按钮时几乎相同:) 我发现这样的图书馆可以做到这一点: 最后,它创建了一个大的html文件,但运行速度非常慢,并且创建了一个非常大的文件 我在网上找到了这样的解决方案,但它也不起作用: wget --no-parent --timestamping --convert-links --page-requisites --no-directories -

我想用PHP制作一个网页的本地副本。这可以是一个web存档,如mht,也可以只是一个带有图像和css的html。结果应该与您在浏览器中按“另存为”按钮时几乎相同:)

我发现这样的图书馆可以做到这一点: 最后,它创建了一个大的html文件,但运行速度非常慢,并且创建了一个非常大的文件

我在网上找到了这样的解决方案,但它也不起作用:

wget --no-parent --timestamping --convert-links --page-requisites --no-directories --no-host-directories -erobots=off http://cnn.com
它不创建任何图像,不下载css,只下载html


我想找到一些PHP库,可以帮助我完全复制网页,或者找到一些外部工具,我可以做一个API cal和获取MHT存档,例如,我想写你自己的,你可以使用curl和搜索外部URL,然后递归地遵循这些。那里可能有一个图书馆

否则,您可以在php中使用
exec()
来运行命令行程序。HTTrack在获取网站方面做得很好:

例如:

exec('httrack'http://www.all.net/“-O”/tmp/www.all.net”“+*.all.net/*”-v')

此外,如果您想使用
wget
,(据称我没有尝试过):


好了,现在我们走近一点。那你想知道什么?你的问题是什么,因为你显然知道你在说什么?我想找到一些PHP库,可以帮助我完全复制网页,或找到一些外部工具,我可以做一个API cal和获得MHT存档,例如。
wget \
     --recursive \
     --no-clobber \
     --page-requisites \
     --html-extension \
     --convert-links \
     --restrict-file-names=windows \
     --domains example.com \
     --no-parent \
         www.example.com/directoryToArchive