Python 3.x 即使在设置LOG_ENABLED=False之后,也会发生刮擦日志记录
我有四个文件Python 3.x 即使在设置LOG_ENABLED=False之后,也会发生刮擦日志记录,python-3.x,logging,scrapy,Python 3.x,Logging,Scrapy,我有四个文件 获取_Data.py 擦伤 合并_Data.py 执行.py 执行只包含前3个文件中所有函数的执行 from Get_Data import func1 from Scrape import myspider from Merge_Data import func2 func1() myspider() func2() 在我的Get_Data文件中,我已将日志记录设置为 logging.basicConfig(filename='get_data.log', format=
- 获取_Data.py
- 擦伤
- 合并_Data.py
- 执行.py
from Get_Data import func1
from Scrape import myspider
from Merge_Data import func2
func1()
myspider()
func2()
在我的Get_Data
文件中,我已将日志记录设置为
logging.basicConfig(filename='get_data.log', format='%(asctime)s %(message)s')
logging.getLogger().setLevel(logging.INFO)
在我的scrape
文件中,我已将LOG\u ENABLED=False设置为
process = CrawlerProcess({
'FEED_FORMAT': 'csv',
'DOWNLOAD_DELAY': 2,
'FEED_URI': 'output_file.csv',
'LOG_ENABLED': False
})
虽然这确实停止了pycharm控制台中的日志,但我仍然可以在我的
get_data.log
中看到日志。有没有一种方法可以明确阻止scrapy将日志写入我以前函数的日志文件?LOG\u ENABLED
阻止scrapy配置日志记录,但如果使用logging.basicConfig
则基本上是手动启用日志记录。您可能希望了解如何配置日志以排除某些消息。