Python 每个爬行器的刮擦日志文件和日志级别设置不起作用

Python 每个爬行器的刮擦日志文件和日志级别设置不起作用,python,scrapy,Python,Scrapy,我的项目中有几个spider,我想将每个spider记录在独立的日志文件中(例如brand.log、product.log…) 因此,我对每个spider使用自定义设置,但它似乎不起作用。直到现在它还是一个bug吗?有什么简单的配置可以解决这个问题吗 非常感谢你的帮助 它对我有用。以下是虚拟项目中的爬行器: # -*- coding: utf-8 -*- import scrapy class ExampleSpider(scrapy.Spider): name = 'example'

我的项目中有几个spider,我想将每个spider记录在独立的日志文件中(例如brand.log、product.log…)

因此,我对每个spider使用
自定义设置
,但它似乎不起作用。直到现在它还是一个bug吗?有什么简单的配置可以解决这个问题吗


非常感谢你的帮助

它对我有用。以下是虚拟项目中的爬行器:

# -*- coding: utf-8 -*-
import scrapy

class ExampleSpider(scrapy.Spider):
    name = 'example'
    start_urls = ['http://example.com/']

    custom_settings = {
        'LOG_FILE': '/tmp/example.log',
    }

    def parse(self, response):
        self.logger.info('XXXXX')

我使用
scrapy crawl example
启动爬行器,日志文件成功写入
/tmp/example.log

您使用的是哪个版本的scrapy,我的版本是1.3。3@freyr在1.4.0上测试。如何运行蜘蛛?对@TomášLinhart,这是固定的: