Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/html/69.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Html 查询后生成的网页的Wget源代码?_Html_Curl_Web_Wget - Fatal编程技术网

Html 查询后生成的网页的Wget源代码?

Html 查询后生成的网页的Wget源代码?,html,curl,web,wget,Html,Curl,Web,Wget,当我在网站上大量输入测试数据时,我试图计算搜索框出错的次数。因此,我正在尝试设置查询结果,并查看html结果页面中是否有“Error”一词。我试图在向网站提交查询后下载生成的html网页。我构建查询并使用wget下载生成的网页 但是,只显示html的主要内容,而不显示结果,因为它是使用外部javascript文件完成的。只有右键单击浏览器上的“查看页面源”才能看到我想要的html。有没有一种非手动方式可以使用wget/curl下载这样的页面源代码,而不必点击所有页面源代码?javascript是

当我在网站上大量输入测试数据时,我试图计算搜索框出错的次数。因此,我正在尝试设置查询结果,并查看html结果页面中是否有“Error”一词。我试图在向网站提交查询后下载生成的html网页。我构建查询并使用wget下载生成的网页


但是,只显示html的主要内容,而不显示结果,因为它是使用外部javascript文件完成的。只有右键单击浏览器上的“查看页面源”才能看到我想要的html。有没有一种非手动方式可以使用wget/curl下载这样的页面源代码,而不必点击所有页面源代码?

javascript是一个程序,程序的结果在多项式时间内是不确定的(对于任意输入)。因此,在沙箱环境中加载javascript,然后针对测试用例执行它更容易

Wget
curl
无法做到这一点:它们没有任何功能来检查/执行获取的结果。实际上,您需要的是一个能够有效加载和测试脚本的浏览器,如shell中的wget/curl。幸运的是,已经有这样一件事了:。它是一个firefox/chrome/explorer扩展,使运行中的浏览器成为可编写脚本的浏览器实例,并且易于远程控制

如果您想在没有gui的情况下非交互式地运行这些浏览器,我建议使用一个假的(无硬件的)X服务器


谷歌:硒,谷歌:无头X。祝你好运

你应该包括相关的链接。但我不能给他更好的链接,他可以很容易地在谷歌上找到。我想,我的大部分帮助是说,对于他需要寻找的东西,他解释说,为什么这部分是不可能的。我用谷歌找到的项目主页的链接?它真的需要/有用吗?Selenium是一个众所周知且稳定的库:链接到它的官方网站(正如我现在在你的回答中所做的)是完全合适的,即使谷歌可能有其他可用资源。