Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/html/86.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
下载HTML页面的最佳工具/库+;所有组件_Html_Linux - Fatal编程技术网

下载HTML页面的最佳工具/库+;所有组件

下载HTML页面的最佳工具/库+;所有组件,html,linux,Html,Linux,我正在寻找一个命令行工具或库(最好是Perl)来下载HTML页面及其所有组件:外部CSS、外部JavaScript、图像、flash或其他对象等 我还没有找到这样做的工具。我可以下载HTML页面,并解析HTML以查找所有外部链接。但是,如果现有的工具能够做到这一点,我宁愿不要重新发明轮子。可能满足您的需要,尽管我不知道它如何与CSS一起工作。wget将很容易工作,但是ajax/xul/等类似的问题它将无法处理,而且有很好的理由。我不知道我怎么会错过-r选项!根据这里的讨论:wget——页面必备条

我正在寻找一个命令行工具或库(最好是Perl)来下载HTML页面及其所有组件:外部CSS、外部JavaScript、图像、flash或其他对象等


我还没有找到这样做的工具。我可以下载HTML页面,并解析HTML以查找所有外部链接。但是,如果现有的工具能够做到这一点,我宁愿不要重新发明轮子。

可能满足您的需要,尽管我不知道它如何与CSS一起工作。

wget将很容易工作,但是ajax/xul/等类似的问题它将无法处理,而且有很好的理由。

我不知道我怎么会错过-r选项!根据这里的讨论:wget——页面必备条件大部分都是这样。朱利安,你可以联系那里的提问者,看看他决定了什么。