延迟后的CURL/WGET

延迟后的CURL/WGET,curl,web-scraping,wget,Curl,Web Scraping,Wget,我知道我可以使用CURL/WGET获取页面的内容。但如果我想在页面“稳定”后获取该页面,该怎么办?或者在一段时间后拿到里面的东西 示例:最初显示一个网页。在一段时间后(比如说15秒),该页面的一个元素会发生更改或更新(或者甚至更新该元素中的新内容)。我可以捕获新元素的内容(或当时的整个页面)吗 基本上,我想访问一个页面,等待15秒,然后CURL/WGET内容。可能吗?curl和wget不知道如何执行javascript,所以你不知道cannot@damian是否有其他(自动化)流程可以完成此“延

我知道我可以使用CURL/WGET获取页面的内容。但如果我想在页面“稳定”后获取该页面,该怎么办?或者在一段时间后拿到里面的东西

示例:最初显示一个网页。在一段时间后(比如说15秒),该页面的一个元素会发生更改或更新(或者甚至更新该元素中的新内容)。我可以捕获新元素的内容(或当时的整个页面)吗


基本上,我想访问一个页面,等待15秒,然后CURL/WGET内容。可能吗?

curl和wget不知道如何执行javascript,所以你不知道cannot@damian是否有其他(自动化)流程可以完成此“延迟刮取”?谢谢。看看幻影。我没有用过它,去年从技术上讲它被废弃了,但它可能可以做你想做的事情