Python Can';不要让脏兮兮的管道工作

Python Can';不要让脏兮兮的管道工作,python,web-crawler,pipeline,scrapy,scraper,Python,Web Crawler,Pipeline,Scrapy,Scraper,我有一个使用Scrapy框架编写的spider。我在让管道工作方面遇到了一些困难。我的pipelines.py中有以下代码: class FilePipeline(object): def __init__(self): self.file = open('items.txt', 'wb') def process_item(self, item, spider): line = item['title'] + '\n' sel

我有一个使用Scrapy框架编写的spider。我在让管道工作方面遇到了一些困难。我的pipelines.py中有以下代码:

class FilePipeline(object):

    def __init__(self):
        self.file = open('items.txt', 'wb')

    def process_item(self, item, spider):
        line = item['title'] + '\n'
        self.file.write(line)
        return item
我的爬行蜘蛛子类有一行代码来激活这个类的管道

ITEM_PIPELINES = [
        'event.pipelines.FilePipeline'
    ]
但是,当我使用

scrapy crawl my_spider
我收到一封信,上面写着

2010-11-03 20:24:06+0000 [scrapy] DEBUG: Enabled item pipelines:
没有管道(我认为这是日志应该输出管道的地方)

我已经试着浏览了文档,但是似乎没有完整的例子来说明我是否遗漏了任何东西


对下一步的尝试有什么建议吗?或者在哪里查找进一步的文档?

我敢打赌,这是单词pipeline中某个地方的资本化差异:

管道与管道

我注意到
“event.pipelines.FilePipeline”
使用前者,而您的代码使用后者:您的文件名使用哪一个


(我多次成为这个拼写错误的受害者!)

明白了!该行需要进入项目的设置模块。现在它工作了

感谢您发现了这一点(真不敢相信我错过了!),但不幸的是,它仍然不起作用。这仍然是我的赌注,在哪里出了问题,继续检查吧!:P(如果没有,我没有主意了…)我再看一看。干杯不,我的客户可能把它放在了某个地方,但恐怕不是我开放源代码的地方。我不得不将项目作为命令使用,而不是设置文件中的列表