ImportError:没有名为bs4刮削中心的模块 打包版本1.0 部署到Scrapy云项目“316316” 部署日志最后30行: _获取设置、命令(module='sh\u scrapy.commands') 文件“/usr/local/lib/python2.7/site packages/sh_scrapy/crawl.py”,第148行,在运行用户代码中 _运行(参数、设置) 文件“/usr/local/lib/python2.7/site packages/sh_scrapy/crawl.py”,第103行,正在运行 _运行刮擦(参数、设置) 文件“/usr/local/lib/python2.7/site packages/sh_scrapy/crawl.py”,第111行,in_run_scrapy 执行(设置=设置) 文件“/usr/local/lib/python2.7/site packages/scrapy/cmdline.py”,执行中的第149行 cmd.crawler_process=CrawlerProcess(设置) 文件“/usr/local/lib/python2.7/site packages/scrapy/crawler.py”,第251行,在__ 超级(爬虫进程,自我)。\uuuuu初始化\uuuuu(设置) 文件“/usr/local/lib/python2.7/site packages/scrapy/crawler.py”,第137行,在__ self.spider\u loader=\u get\u spider\u loader(设置) 文件“/usr/local/lib/python2.7/site packages/scrapy/crawler.py”,第338行,在“获取蜘蛛”加载程序中 从\u设置返回加载程序\u cls.(settings.frozencopy()) 文件“/usr/local/lib/python2.7/site packages/scrapy/spiderloader.py”,第61行,在from_设置中 返回cls(设置) 文件“/usr/local/lib/python2.7/site packages/scrapy/spiderloader.py”,第25行,在__ self.\u加载\u所有\u蜘蛛() 文件“/usr/local/lib/python2.7/site packages/scrapy/spiderloader.py”,第47行,在所有spider中 对于walk_模块中的模块(名称): 文件“/usr/local/lib/python2.7/site packages/scrapy/utils/misc.py”,第71行,在walk_模块中 子模块=导入模块(完整路径) 文件“/usr/local/lib/python2.7/importlib/_init__.py”,第37行,在导入模块中 __导入(名称) 文件“/app/\uuuuu main\uuuuuu.egg/niceprice/spider/forever.py”,第11行,在 ImportError:没有名为bs4的模块 {“消息”:“shub图像信息退出代码:1”,“详细信息”:null,“错误”:“图像信息错误”}
您好,我编写了一个scrapy spider,我正在尝试部署到scraping hub上,我需要使用BeautifulSoup来处理损坏的HTML部分,部署时出现以下错误。来源: 以下是为部署python依赖项所必须做的事情 您的项目:ImportError:没有名为bs4刮削中心的模块 打包版本1.0 部署到Scrapy云项目“316316” 部署日志最后30行: _获取设置、命令(module='sh\u scrapy.commands') 文件“/usr/local/lib/python2.7/site packages/sh_scrapy/crawl.py”,第148行,在运行用户代码中 _运行(参数、设置) 文件“/usr/local/lib/python2.7/site packages/sh_scrapy/crawl.py”,第103行,正在运行 _运行刮擦(参数、设置) 文件“/usr/local/lib/python2.7/site packages/sh_scrapy/crawl.py”,第111行,in_run_scrapy 执行(设置=设置) 文件“/usr/local/lib/python2.7/site packages/scrapy/cmdline.py”,执行中的第149行 cmd.crawler_process=CrawlerProcess(设置) 文件“/usr/local/lib/python2.7/site packages/scrapy/crawler.py”,第251行,在__ 超级(爬虫进程,自我)。\uuuuu初始化\uuuuu(设置) 文件“/usr/local/lib/python2.7/site packages/scrapy/crawler.py”,第137行,在__ self.spider\u loader=\u get\u spider\u loader(设置) 文件“/usr/local/lib/python2.7/site packages/scrapy/crawler.py”,第338行,在“获取蜘蛛”加载程序中 从\u设置返回加载程序\u cls.(settings.frozencopy()) 文件“/usr/local/lib/python2.7/site packages/scrapy/spiderloader.py”,第61行,在from_设置中 返回cls(设置) 文件“/usr/local/lib/python2.7/site packages/scrapy/spiderloader.py”,第25行,在__ self.\u加载\u所有\u蜘蛛() 文件“/usr/local/lib/python2.7/site packages/scrapy/spiderloader.py”,第47行,在所有spider中 对于walk_模块中的模块(名称): 文件“/usr/local/lib/python2.7/site packages/scrapy/utils/misc.py”,第71行,在walk_模块中 子模块=导入模块(完整路径) 文件“/usr/local/lib/python2.7/importlib/_init__.py”,第37行,在导入模块中 __导入(名称) 文件“/app/\uuuuu main\uuuuuu.egg/niceprice/spider/forever.py”,第11行,在 ImportError:没有名为bs4的模块 {“消息”:“shub图像信息退出代码:1”,“详细信息”:null,“错误”:“图像信息错误”},python,Python,您好,我编写了一个scrapy spider,我正在尝试部署到scraping hub上,我需要使用BeautifulSoup来处理损坏的HTML部分,部署时出现以下错误。来源: 以下是为部署python依赖项所必须做的事情 您的项目: 在项目的根文件夹中创建一个requirements.txt文件,其中包含额外的依赖项 将该文件设置为项目的scrapinghub.yml配置文件中的需求值 使用依赖项部署项目 1。创建requirements.txt文件 这是一个常规文本文件,您可以在其中列出
Packing version 1.0
Deploying to Scrapy Cloud project "316316"
Deploy log last 30 lines:
_get_apisettings, commands_module='sh_scrapy.commands')
File "/usr/local/lib/python2.7/site-packages/sh_scrapy/crawl.py", line 148, in _run_usercode
_run(args, settings)
File "/usr/local/lib/python2.7/site-packages/sh_scrapy/crawl.py", line 103, in _run
_run_scrapy(args, settings)
File "/usr/local/lib/python2.7/site-packages/sh_scrapy/crawl.py", line 111, in _run_scrapy
execute(settings=settings)
File "/usr/local/lib/python2.7/site-packages/scrapy/cmdline.py", line 149, in execute
cmd.crawler_process = CrawlerProcess(settings)
File "/usr/local/lib/python2.7/site-packages/scrapy/crawler.py", line 251, in __init__
super(CrawlerProcess, self).__init__(settings)
File "/usr/local/lib/python2.7/site-packages/scrapy/crawler.py", line 137, in __init__
self.spider_loader = _get_spider_loader(settings)
File "/usr/local/lib/python2.7/site-packages/scrapy/crawler.py", line 338, in _get_spider_loader
return loader_cls.from_settings(settings.frozencopy())
File "/usr/local/lib/python2.7/site-packages/scrapy/spiderloader.py", line 61, in from_settings
return cls(settings)
File "/usr/local/lib/python2.7/site-packages/scrapy/spiderloader.py", line 25, in __init__
self._load_all_spiders()
File "/usr/local/lib/python2.7/site-packages/scrapy/spiderloader.py", line 47, in _load_all_spiders
for module in walk_modules(name):
File "/usr/local/lib/python2.7/site-packages/scrapy/utils/misc.py", line 71, in walk_modules
submod = import_module(fullpath)
File "/usr/local/lib/python2.7/importlib/__init__.py", line 37, in import_module
__import__(name)
File "/app/__main__.egg/niceprice/spiders/forever.py", line 11, in <module>
ImportError: No module named bs4
{"message": "shub-image-info exit code: 1", "details": null, "error": "image_info_error"}
你应该总是用别针
如我们在中所做的那样,为每个依赖项下载特定版本
上面的例子。通过这样做,您可以避免获得
您的爬行器因意外升级而损坏
2。在scrapinghub.yml上配置依赖项
创建需求文件后,将需求设置添加到
scrapinghub.yml并将其指向项目的requirements.txt路径:
js2xml==0.2.1
extruct==0.1.0
requests==2.6.0
注意:如果项目文件夹中没有scrapinghub.yml文件,则
应该运行shub部署一次以生成它
3。部署您的项目
现在您已经设置了项目依赖项,是时候部署了
你的项目。只要运行一个常规的shub部署,您就应该
能够在Scrapy Cloud中使用具有额外依赖项的爬行器
$shub部署
您运行了什么命令来获取此错误?我不知道有关scrapy hu的任何信息,但我搜索了一下发现:您需要创建一个
requirements.txt
文件来deploy@curusarn我使用了shub登录
然后shub部署
@madboy:下面是方法:
projects:
default: 12345
requirements:
file: requirements.txt