Python 爬行爬行器在爬行时获取源链接
使用scrapy的Python 爬行爬行器在爬行时获取源链接,python,scrapy,Python,Scrapy,使用scrapy的爬行爬行器,是否有一种规范的方法来获取页面的url,而规则遵循该url。例如,当我在回调方法中解析页面B时,如果我有一个从页面a到页面B的链接,有没有办法知道页面a的url?我更感兴趣的是一个内置功能,而不是扩展CrawlSPider类。在回调中,您可以在响应的请求头中使用“Referer”头 def mycallback(self, response): print "Referer:", response.request.headers.get("R
爬行爬行器
,是否有一种规范的方法来获取页面的url,而规则遵循该url。例如,当我在回调方法中解析页面B时,如果我有一个从页面a到页面B的链接,有没有办法知道页面a的url?我更感兴趣的是一个内置功能,而不是扩展CrawlSPider
类。在回调中,您可以在响应的请求头中使用“Referer”头
def mycallback(self, response):
print "Referer:", response.request.headers.get("Referer")
...
它应该适用于所有蜘蛛