如何使用scrapy跟踪延迟加载?
我试图抓取一个页面,该页面使用延迟加载来获取下一组项目。我的爬虫程序遵循正常链接,但此链接似乎有所不同: 页面: 然后是 但仅当您在浏览器中加载它时。Scrapy不会跟随链接如何使用scrapy跟踪延迟加载?,scrapy,lazy-loading,Scrapy,Lazy Loading,我试图抓取一个页面,该页面使用延迟加载来获取下一组项目。我的爬虫程序遵循正常链接,但此链接似乎有所不同: 页面: 然后是 但仅当您在浏览器中加载它时。Scrapy不会跟随链接 有没有办法让scray自动跟随第1、2、3、4页?页面跟随虚拟滚动,并且通过api获取数据 https://www.omegawatches.com/de/vintage-watches?p=1&ajax=1 它返回一个json数据,其中包含不同的详细信息,包括html格式的产品,以及下一页是否存在于带有classlin
有没有办法让scray自动跟随第1、2、3、4页?页面跟随虚拟滚动,并且通过api获取数据
https://www.omegawatches.com/de/vintage-watches?p=1&ajax=1
它返回一个json数据,其中包含不同的详细信息,包括html格式的产品,以及下一页是否存在于带有classlink next的a
标记中
增加页码,直到没有带有下一个链接的标签。谢谢您的帮助。这个数字只是用1,2,3来表示。。但我真的不知道如何做到这一点,我现在只需要将100个URL放入列表中,这很有效,但如果能够自动完成并知道它何时停止,那将是非常棒的。这听起来像是OP正在使用start_URL,因此,如果您真的想提供一个示例,您可以提供一个简单的代码片段,该代码片段可以从带有range()的start_请求()生成。