Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/281.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/gwt/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python scrapy请求回调未被激发_Python_Request_Scrapy - Fatal编程技术网

Python scrapy请求回调未被激发

Python scrapy请求回调未被激发,python,request,scrapy,Python,Request,Scrapy,我在这里完全迷路了。我正在实现一个scrapy项目,其中项目由不同页面上的值组成。这就是我所拥有的: self.logger.debug("Bilanz URL %s", item['bilanz_url']) return Request(url=item['bilanz_url'], callback=self.parse_estimations, errback=self.error_handler, dont_filter=True, meta =

我在这里完全迷路了。我正在实现一个scrapy项目,其中项目由不同页面上的值组成。这就是我所拥有的:

self.logger.debug("Bilanz URL %s", item['bilanz_url'])
return Request(url=item['bilanz_url'], 
    callback=self.parse_estimations, 
    errback=self.error_handler, 
    dont_filter=True,
    meta = {'item': dict(item)})

def parse_estimations(self, response):
    self.logger.info("Function parse_estimations %s", response.url)
    item = response.meta['item']
    item['raw_estimations'] = response.xpath("//td[starts-with(text(), 'KGV')]/ancestor::table").extract_first()
    yield item
现在的问题是函数
parse_estimations
永远不会到达,errback处理程序也不会被调用。我也可以
产生同样的效果。
我是不是漏掉了什么明显的东西

其他信息:这些扩展和中间件已启用:

[scrapy] INFO: Enabled extensions: CloseSpider, TelnetConsole, LogStats, CoreStats, SpiderState
[scrapy] INFO: Enabled downloader middlewares: HttpAuthMiddleware, DownloadTimeoutMiddleware, UserAgentMiddleware, RetryMiddleware, DefaultHeadersMiddleware, MetaRefreshMiddleware, HttpCompressionMiddleware, RedirectMiddleware, CookiesMiddleware, ChunkedTransferMiddleware, DownloaderStats

你看到重复的请求过滤错误记录了吗?@alecxe:谢谢你查看。诚然,我确实看到了它们,但仅在第一个项目页面(此代码位于响应函数中的页面)中看到了它们。如果在返回/生成
请求时设置
dont\u filter=True
,会怎么样?@alecxe:没有,真的。我已经编辑了我的问题并包含函数
parse\u estimations
-日志文本从未出现,预期的项目也没有出现。@alecxe:其他信息:当我直接对函数使用命令
scrapy parse
时,请求被触发并到达相应的函数-对我来说非常奇怪。你看到重复的请求过滤错误记录了吗?@alecxe:谢谢你查看这个。诚然,我确实看到了它们,但仅在第一个项目页面(此代码位于响应函数中的页面)中看到了它们。如果在返回/生成
请求时设置
dont\u filter=True
,会怎么样?@alecxe:没有,真的。我已经编辑了我的问题,并包含了函数
parse\u estimations
——日志文本从未出现,预期的项目也没有出现。@alecxe:其他信息:当我直接使用函数的
scrapy parse
命令时,请求被触发,相应的函数被实现——对我来说非常奇怪。