Scrapy-有没有办法通过蜘蛛清除饼干

Scrapy-有没有办法通过蜘蛛清除饼干,scrapy,scrapy-spider,Scrapy,Scrapy Spider,我正在通过scrapy爬行一个网站。在一系列请求之后,爬行器停止,这意味着没有分页。当我在浏览器中打开同一页时,它显示为“请关闭浏览器并重试”或返回主页并重试,但当我在“资源”选项卡中检查元素并清除Cookie时,我可以再次查看该页 我现在如何用我的蜘蛛清理饼干????我已将下载延迟添加为4,但仍然看到相同的问题请尝试禁用settings.py文件中的cookie。设置: COOKIES_ENABLED = False 你可以发布起始url吗?@Jithin你应该粘贴蜘蛛代码。否则,reque

我正在通过scrapy爬行一个网站。在一系列请求之后,爬行器停止,这意味着没有分页。当我在浏览器中打开同一页时,它显示为“请关闭浏览器并重试”或返回主页并重试,但当我在“资源”选项卡中检查元素并清除Cookie时,我可以再次查看该页


我现在如何用我的蜘蛛清理饼干????我已将下载延迟添加为4,但仍然看到相同的问题

请尝试禁用settings.py文件中的cookie。设置:

COOKIES_ENABLED = False

你可以发布起始url吗?@Jithin你应该粘贴蜘蛛代码。否则,request.cookies={}应该会这样做。嗨,我试过了,但还是一样的