Python 如何通过setuptools安装Crawlera
我想在docker中安装crawlera avec setuptools 在我的scrapy.cfg文件中,我有:Python 如何通过setuptools安装Crawlera,python,python-2.7,scrapy,setuptools,scrapyd,Python,Python 2.7,Scrapy,Setuptools,Scrapyd,我想在docker中安装crawlera avec setuptools 在我的scrapy.cfg文件中,我有: [deploy=test] url = http://localhost:6800/ project = Crawling 我通过scrapyd deploy-l进行测试,并且 test http://localhost:6800/ 在mysetup.py中,我有 从setuptools导入设置中,查找\u包 setup( name
[deploy=test]
url = http://localhost:6800/
project = Crawling
我通过scrapyd deploy-l
进行测试,并且
test http://localhost:6800/
在mysetup.py中,我有
从setuptools导入设置中,查找\u包
setup(
name = 'Crawling',
version = '1.0',
packages = find_packages(),
entry_points = {'scrapy': ['settings = Crawling.settings']},
install_requires=['scrapy-crawlera'],
)
在我的requires.txt文件的末尾,我有scrapy crawlera
但是crawlera没有安装在我的docker中。docker没有正确安装,我通过在Docker文件中重新安装Docker来解决我的问题。为什么不在Docker文件中使用pip install-r requires.txt
?是的,你是对的,但我想知道为什么我不能通过SetupTools安装它。你将脚本视为需要安装的软件包?您是否使用了python setup.py install
?因此,您最好自己删除帖子或答案,因为这对其他读者来说是有意义的。@parik为了使其完美,您可以接受您的答案;)