Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/306.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
ImportError:没有名为bs4刮削中心的模块 打包版本1.0 部署到Scrapy云项目“316316” 部署日志最后30行: _获取设置、命令(module='sh\u scrapy.commands') 文件“/usr/local/lib/python2.7/site packages/sh_scrapy/crawl.py”,第148行,在运行用户代码中 _运行(参数、设置) 文件“/usr/local/lib/python2.7/site packages/sh_scrapy/crawl.py”,第103行,正在运行 _运行刮擦(参数、设置) 文件“/usr/local/lib/python2.7/site packages/sh_scrapy/crawl.py”,第111行,in_run_scrapy 执行(设置=设置) 文件“/usr/local/lib/python2.7/site packages/scrapy/cmdline.py”,执行中的第149行 cmd.crawler_process=CrawlerProcess(设置) 文件“/usr/local/lib/python2.7/site packages/scrapy/crawler.py”,第251行,在__ 超级(爬虫进程,自我)。\uuuuu初始化\uuuuu(设置) 文件“/usr/local/lib/python2.7/site packages/scrapy/crawler.py”,第137行,在__ self.spider\u loader=\u get\u spider\u loader(设置) 文件“/usr/local/lib/python2.7/site packages/scrapy/crawler.py”,第338行,在“获取蜘蛛”加载程序中 从\u设置返回加载程序\u cls.(settings.frozencopy()) 文件“/usr/local/lib/python2.7/site packages/scrapy/spiderloader.py”,第61行,在from_设置中 返回cls(设置) 文件“/usr/local/lib/python2.7/site packages/scrapy/spiderloader.py”,第25行,在__ self.\u加载\u所有\u蜘蛛() 文件“/usr/local/lib/python2.7/site packages/scrapy/spiderloader.py”,第47行,在所有spider中 对于walk_模块中的模块(名称): 文件“/usr/local/lib/python2.7/site packages/scrapy/utils/misc.py”,第71行,在walk_模块中 子模块=导入模块(完整路径) 文件“/usr/local/lib/python2.7/importlib/_init__.py”,第37行,在导入模块中 __导入(名称) 文件“/app/\uuuuu main\uuuuuu.egg/niceprice/spider/forever.py”,第11行,在 ImportError:没有名为bs4的模块 {“消息”:“shub图像信息退出代码:1”,“详细信息”:null,“错误”:“图像信息错误”}_Python - Fatal编程技术网

ImportError:没有名为bs4刮削中心的模块 打包版本1.0 部署到Scrapy云项目“316316” 部署日志最后30行: _获取设置、命令(module='sh\u scrapy.commands') 文件“/usr/local/lib/python2.7/site packages/sh_scrapy/crawl.py”,第148行,在运行用户代码中 _运行(参数、设置) 文件“/usr/local/lib/python2.7/site packages/sh_scrapy/crawl.py”,第103行,正在运行 _运行刮擦(参数、设置) 文件“/usr/local/lib/python2.7/site packages/sh_scrapy/crawl.py”,第111行,in_run_scrapy 执行(设置=设置) 文件“/usr/local/lib/python2.7/site packages/scrapy/cmdline.py”,执行中的第149行 cmd.crawler_process=CrawlerProcess(设置) 文件“/usr/local/lib/python2.7/site packages/scrapy/crawler.py”,第251行,在__ 超级(爬虫进程,自我)。\uuuuu初始化\uuuuu(设置) 文件“/usr/local/lib/python2.7/site packages/scrapy/crawler.py”,第137行,在__ self.spider\u loader=\u get\u spider\u loader(设置) 文件“/usr/local/lib/python2.7/site packages/scrapy/crawler.py”,第338行,在“获取蜘蛛”加载程序中 从\u设置返回加载程序\u cls.(settings.frozencopy()) 文件“/usr/local/lib/python2.7/site packages/scrapy/spiderloader.py”,第61行,在from_设置中 返回cls(设置) 文件“/usr/local/lib/python2.7/site packages/scrapy/spiderloader.py”,第25行,在__ self.\u加载\u所有\u蜘蛛() 文件“/usr/local/lib/python2.7/site packages/scrapy/spiderloader.py”,第47行,在所有spider中 对于walk_模块中的模块(名称): 文件“/usr/local/lib/python2.7/site packages/scrapy/utils/misc.py”,第71行,在walk_模块中 子模块=导入模块(完整路径) 文件“/usr/local/lib/python2.7/importlib/_init__.py”,第37行,在导入模块中 __导入(名称) 文件“/app/\uuuuu main\uuuuuu.egg/niceprice/spider/forever.py”,第11行,在 ImportError:没有名为bs4的模块 {“消息”:“shub图像信息退出代码:1”,“详细信息”:null,“错误”:“图像信息错误”}

ImportError:没有名为bs4刮削中心的模块 打包版本1.0 部署到Scrapy云项目“316316” 部署日志最后30行: _获取设置、命令(module='sh\u scrapy.commands') 文件“/usr/local/lib/python2.7/site packages/sh_scrapy/crawl.py”,第148行,在运行用户代码中 _运行(参数、设置) 文件“/usr/local/lib/python2.7/site packages/sh_scrapy/crawl.py”,第103行,正在运行 _运行刮擦(参数、设置) 文件“/usr/local/lib/python2.7/site packages/sh_scrapy/crawl.py”,第111行,in_run_scrapy 执行(设置=设置) 文件“/usr/local/lib/python2.7/site packages/scrapy/cmdline.py”,执行中的第149行 cmd.crawler_process=CrawlerProcess(设置) 文件“/usr/local/lib/python2.7/site packages/scrapy/crawler.py”,第251行,在__ 超级(爬虫进程,自我)。\uuuuu初始化\uuuuu(设置) 文件“/usr/local/lib/python2.7/site packages/scrapy/crawler.py”,第137行,在__ self.spider\u loader=\u get\u spider\u loader(设置) 文件“/usr/local/lib/python2.7/site packages/scrapy/crawler.py”,第338行,在“获取蜘蛛”加载程序中 从\u设置返回加载程序\u cls.(settings.frozencopy()) 文件“/usr/local/lib/python2.7/site packages/scrapy/spiderloader.py”,第61行,在from_设置中 返回cls(设置) 文件“/usr/local/lib/python2.7/site packages/scrapy/spiderloader.py”,第25行,在__ self.\u加载\u所有\u蜘蛛() 文件“/usr/local/lib/python2.7/site packages/scrapy/spiderloader.py”,第47行,在所有spider中 对于walk_模块中的模块(名称): 文件“/usr/local/lib/python2.7/site packages/scrapy/utils/misc.py”,第71行,在walk_模块中 子模块=导入模块(完整路径) 文件“/usr/local/lib/python2.7/importlib/_init__.py”,第37行,在导入模块中 __导入(名称) 文件“/app/\uuuuu main\uuuuuu.egg/niceprice/spider/forever.py”,第11行,在 ImportError:没有名为bs4的模块 {“消息”:“shub图像信息退出代码:1”,“详细信息”:null,“错误”:“图像信息错误”},python,Python,您好,我编写了一个scrapy spider,我正在尝试部署到scraping hub上,我需要使用BeautifulSoup来处理损坏的HTML部分,部署时出现以下错误。来源: 以下是为部署python依赖项所必须做的事情 您的项目: 在项目的根文件夹中创建一个requirements.txt文件,其中包含额外的依赖项 将该文件设置为项目的scrapinghub.yml配置文件中的需求值 使用依赖项部署项目 1。创建requirements.txt文件 这是一个常规文本文件,您可以在其中列出

您好,我编写了一个scrapy spider,我正在尝试部署到scraping hub上,我需要使用BeautifulSoup来处理损坏的HTML部分,部署时出现以下错误。

来源:

以下是为部署python依赖项所必须做的事情 您的项目:

  • 在项目的根文件夹中创建一个requirements.txt文件,其中包含额外的依赖项
  • 将该文件设置为项目的scrapinghub.yml配置文件中的需求值
  • 使用依赖项部署项目
  • 1。创建requirements.txt文件

    这是一个常规文本文件,您可以在其中列出 您的项目取决于,每行一个包。例如:

    Packing version 1.0
    Deploying to Scrapy Cloud project "316316"
    Deploy log last 30 lines:
        _get_apisettings, commands_module='sh_scrapy.commands')
      File "/usr/local/lib/python2.7/site-packages/sh_scrapy/crawl.py", line 148, in _run_usercode
        _run(args, settings)
      File "/usr/local/lib/python2.7/site-packages/sh_scrapy/crawl.py", line 103, in _run
        _run_scrapy(args, settings)
      File "/usr/local/lib/python2.7/site-packages/sh_scrapy/crawl.py", line 111, in _run_scrapy
        execute(settings=settings)
      File "/usr/local/lib/python2.7/site-packages/scrapy/cmdline.py", line 149, in execute
        cmd.crawler_process = CrawlerProcess(settings)
      File "/usr/local/lib/python2.7/site-packages/scrapy/crawler.py", line 251, in __init__
        super(CrawlerProcess, self).__init__(settings)
      File "/usr/local/lib/python2.7/site-packages/scrapy/crawler.py", line 137, in __init__
        self.spider_loader = _get_spider_loader(settings)
      File "/usr/local/lib/python2.7/site-packages/scrapy/crawler.py", line 338, in _get_spider_loader
        return loader_cls.from_settings(settings.frozencopy())
      File "/usr/local/lib/python2.7/site-packages/scrapy/spiderloader.py", line 61, in from_settings
        return cls(settings)
      File "/usr/local/lib/python2.7/site-packages/scrapy/spiderloader.py", line 25, in __init__
        self._load_all_spiders()
      File "/usr/local/lib/python2.7/site-packages/scrapy/spiderloader.py", line 47, in _load_all_spiders
        for module in walk_modules(name):
      File "/usr/local/lib/python2.7/site-packages/scrapy/utils/misc.py", line 71, in walk_modules
        submod = import_module(fullpath)
      File "/usr/local/lib/python2.7/importlib/__init__.py", line 37, in import_module
        __import__(name)
      File "/app/__main__.egg/niceprice/spiders/forever.py", line 11, in <module>
    ImportError: No module named bs4
    {"message": "shub-image-info exit code: 1", "details": null, "error": "image_info_error"}
    
    你应该总是用别针 如我们在中所做的那样,为每个依赖项下载特定版本 上面的例子。通过这样做,您可以避免获得 您的爬行器因意外升级而损坏

    2。在scrapinghub.yml上配置依赖项

    创建需求文件后,将需求设置添加到 scrapinghub.yml并将其指向项目的requirements.txt路径:

    js2xml==0.2.1 
    extruct==0.1.0 
    requests==2.6.0
    
    注意:如果项目文件夹中没有scrapinghub.yml文件,则 应该运行shub部署一次以生成它

    3。部署您的项目

    现在您已经设置了项目依赖项,是时候部署了 你的项目。只要运行一个常规的shub部署,您就应该 能够在Scrapy Cloud中使用具有额外依赖项的爬行器

    $shub部署


    您运行了什么命令来获取此错误?我不知道有关scrapy hu的任何信息,但我搜索了一下发现:您需要创建一个
    requirements.txt
    文件来deploy@curusarn我使用了
    shub登录
    然后
    shub部署
    @madboy:下面是方法:
    projects:
       default: 12345 
    requirements:
       file: requirements.txt