Python 如何通过setuptools安装Crawlera

Python 如何通过setuptools安装Crawlera,python,python-2.7,scrapy,setuptools,scrapyd,Python,Python 2.7,Scrapy,Setuptools,Scrapyd,我想在docker中安装crawlera avec setuptools 在我的scrapy.cfg文件中,我有: [deploy=test] url = http://localhost:6800/ project = Crawling 我通过scrapyd deploy-l进行测试,并且 test http://localhost:6800/ 在mysetup.py中,我有 从setuptools导入设置中,查找\u包 setup( name

我想在docker中安装crawlera avec setuptools

在我的scrapy.cfg文件中,我有:

[deploy=test]
url = http://localhost:6800/
project = Crawling
我通过
scrapyd deploy-l
进行测试,并且

test              http://localhost:6800/
在my
setup.py中,我有
从setuptools导入设置中,查找\u包

setup(
    name         = 'Crawling',
    version      = '1.0',
    packages     = find_packages(),
    entry_points = {'scrapy': ['settings = Crawling.settings']},
    install_requires=['scrapy-crawlera'],
)
在我的
requires.txt文件的末尾,我有
scrapy crawlera

但是crawlera没有安装在我的docker中。

docker没有正确安装,我通过在Docker文件中重新安装Docker来解决我的问题。为什么不在Docker文件中使用
pip install-r requires.txt
?是的,你是对的,但我想知道为什么我不能通过SetupTools安装它。你将脚本视为需要安装的软件包?您是否使用了
python setup.py install
?因此,您最好自己删除帖子或答案,因为这对其他读者来说是有意义的。@parik为了使其完美,您可以接受您的答案;)