Python Scrapy with Splash:没有名为Scrapy_Splash的模块

Python Scrapy with Splash:没有名为Scrapy_Splash的模块,python,scrapy,splash-screen,Python,Scrapy,Splash Screen,我正在努力学习如何使用scrapy的splash。我正在做这个教程: 我创建了一个小项目。当我跑步时: $scrapy crawl spider1 一切正常。但是,当我添加到settings.py文件时: DOWNLOADER_MIDDLEWARES = { 'scrapy_splash.SplashCookiesMiddleware': 723, 'scrapy_splash.SplashMiddleware': 725, 'scrapy.downloadermiddlewares.httpc

我正在努力学习如何使用scrapy的splash。我正在做这个教程:

我创建了一个小项目。当我跑步时:

$scrapy crawl spider1

一切正常。但是,当我添加到settings.py文件时:

DOWNLOADER_MIDDLEWARES = {
'scrapy_splash.SplashCookiesMiddleware': 723,
'scrapy_splash.SplashMiddleware': 725,
'scrapy.downloadermiddlewares.httpcompression.HttpCompressionMiddleware': 810,
}
我收到一条消息说:
modulenofounderror:没有名为“scrapy\u splash”的模块
。我已检查是否安装了scrapy_splash:

username$ pip3 show scrapy_splash
Name: scrapy-splash
Version: 0.7.1
Summary: JavaScript support for Scrapy using Splash
Home-page: https://github.com/scrapy-plugins/scrapy-splash
Author: Mikhail Korobov
Author-email: kmike84@gmail.com
License: BSD
Location: /Library/Frameworks/Python.framework/Versions/3.6/lib/python3.6/site-packages
Requires: 
我尝试将scrapy_splash导入我的蜘蛛脚本和设置脚本。如果我这样做,我会收到一条信息,说:

raise KeyError("Spider not found: {}".format(spider_name))
KeyError: 'Spider not found: spider1'

有人知道如何解决此问题吗?

您应该添加到requirements.txt:

刮屑飞溅==0.7.2

然后构建容器

docker编写生成容器\u名称


这对我很有用。

您应该添加到requirements.txt:

刮屑飞溅==0.7.2

然后构建容器

docker编写生成容器\u名称


这对我很管用。

你确定你正在运行python3 scrapy吗?你能做一下pip3显示刮擦吗?这可能是因为你的蟒蛇3上有刮屑飞溅,蟒蛇2上有scrpay。另外,我强烈建议使用virtualenvironment来避免此类问题:)@Granitosaurus Hi!是的,我安装了scrapy 1.3。我想我已经在虚拟环境中试过了!我会再做一次。谢谢你确定你在用蟒蛇皮刮吗?你能做一下pip3显示刮擦吗?这可能是因为你的蟒蛇3上有刮屑飞溅,蟒蛇2上有scrpay。另外,我强烈建议使用virtualenvironment来避免此类问题:)@Granitosaurus Hi!是的,我安装了scrapy 1.3。我想我已经在虚拟环境中试过了!我会再做一次。谢谢