Scrapy 启动从另一台计算机复制的零碎项目

Scrapy 启动从另一台计算机复制的零碎项目,scrapy,Scrapy,我从机器上复制了一个粗糙的项目。我尝试使用终端运行下面的命令 scrapy crawl link_spider 它显示: scrapy 1.8.0-无活动项目 未知命令:爬网 文件夹结构: -crawler -constants.py -helpers.py -items.py -middlewares.py -pipelines.py -settings.py -spiders.py -utils -databases 当我运行python应用程序时,爬虫程序正

我从机器上复制了一个粗糙的项目。我尝试使用终端运行下面的命令

scrapy crawl link_spider
它显示:

scrapy 1.8.0-无活动项目

未知命令:爬网

文件夹结构:

-crawler
  -constants.py
  -helpers.py
  -items.py
  -middlewares.py
  -pipelines.py
  -settings.py
  -spiders.py
-utils
-databases

当我运行python应用程序时,爬虫程序正在工作。我想使用终端运行它,我在文件夹(根文件夹和爬虫文件夹)中尝试了
scrapy crawl link\u spider

检查项目目录文件和格式,如文件夹结构不显示scrapy.cfg。在存在scrapy.cfg文件的文件夹中执行命令scrapy crawl link_spider。
-crawler
  -constants.py
  -helpers.py
  -items.py
  -middlewares.py
  -pipelines.py
  -settings.py
  -spiders.py
-utils
-databases