如何使用scrapy跟踪延迟加载?

如何使用scrapy跟踪延迟加载?,scrapy,lazy-loading,Scrapy,Lazy Loading,我试图抓取一个页面,该页面使用延迟加载来获取下一组项目。我的爬虫程序遵循正常链接,但此链接似乎有所不同: 页面: 然后是 但仅当您在浏览器中加载它时。Scrapy不会跟随链接 有没有办法让scray自动跟随第1、2、3、4页?页面跟随虚拟滚动,并且通过api获取数据 https://www.omegawatches.com/de/vintage-watches?p=1&ajax=1 它返回一个json数据,其中包含不同的详细信息,包括html格式的产品,以及下一页是否存在于带有classlin

我试图抓取一个页面,该页面使用延迟加载来获取下一组项目。我的爬虫程序遵循正常链接,但此链接似乎有所不同:

页面:

然后是

但仅当您在浏览器中加载它时。Scrapy不会跟随链接


有没有办法让scray自动跟随第1、2、3、4页?

页面跟随虚拟滚动,并且通过api获取数据

https://www.omegawatches.com/de/vintage-watches?p=1&ajax=1

它返回一个json数据,其中包含不同的详细信息,包括html格式的产品,以及下一页是否存在于带有class
link next的
a
标记中


增加页码,直到没有带有
下一个链接的
标签。

谢谢您的帮助。这个数字只是用1,2,3来表示。。但我真的不知道如何做到这一点,我现在只需要将100个URL放入列表中,这很有效,但如果能够自动完成并知道它何时停止,那将是非常棒的。这听起来像是OP正在使用start_URL,因此,如果您真的想提供一个示例,您可以提供一个简单的代码片段,该代码片段可以从带有range()的start_请求()生成。