Python 将碎片导出到csv
我想用下面的方法来使用scrapyPython 将碎片导出到csv,python,scrapy,Python,Scrapy,我想用下面的方法来使用scrapy 从scrapy.crawler导入crawler进程 进程=爬网进程({ “用户代理”:“Mozilla/4.0(兼容;MSIE 7.0;Windows NT 5.1)” 进程爬网(我的超级刮板) process.start() 它可以与my_super_scraper一起使用,但我不知道如何导出到CSV。我在文档中也找不到它。您需要设置FEED\u格式和FEED\u URI参数,如下所示: from scrapy.crawler import Crawle
从scrapy.crawler导入crawler进程
进程=爬网进程({
“用户代理”:“Mozilla/4.0(兼容;MSIE 7.0;Windows NT 5.1)”
进程爬网(我的超级刮板)
process.start()
它可以与my_super_scraper一起使用,但我不知道如何导出到CSV。我在文档中也找不到它。您需要设置
FEED\u格式
和FEED\u URI
参数,如下所示:
from scrapy.crawler import CrawlerProcess
process = CrawlerProcess({
'USER_AGENT': 'Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1)',
'FEED_FORMAT': 'CSV',
'FEED_URI': 'file:///tmp/export.csv',
})
process.crawl(my_super_craper)
process.start()
有关提要导出的更多信息,请单击此处
这篇文章展示了如何导出为JSON格式:
您需要设置
FEED\u格式
和FEED\u URI
参数,如下所示:
from scrapy.crawler import CrawlerProcess
process = CrawlerProcess({
'USER_AGENT': 'Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1)',
'FEED_FORMAT': 'CSV',
'FEED_URI': 'file:///tmp/export.csv',
})
process.crawl(my_super_craper)
process.start()
有关提要导出的更多信息,请单击此处
这篇文章展示了如何导出为JSON格式: