Python 2.7 通过批处理文件运行scrapy spider时命令窗口未关闭

Python 2.7 通过批处理文件运行scrapy spider时命令窗口未关闭,python-2.7,batch-file,cmd,scrapy,windows-7-x64,Python 2.7,Batch File,Cmd,Scrapy,Windows 7 X64,我编写了一个scrapy spider,当我从命令窗口运行它时,它工作得非常好。所以现在我想用运行Windows7的批处理文件自动运行它 我编写了这个批处理文件: @echo off cd c:\scrapy\callStats scrapy crawl logspider exit 这确实会运行爬行器,但爬行器完成后,光标只会闪烁,窗口不会关闭 非常感谢您的帮助。scrapy是scrapy.bat批处理文件吗?如果是这样,那么您必须在它之前添加一个调用命令:call scrapy crawl

我编写了一个scrapy spider,当我从命令窗口运行它时,它工作得非常好。所以现在我想用运行Windows7的批处理文件自动运行它

我编写了这个批处理文件:

@echo off
cd c:\scrapy\callStats
scrapy crawl logspider
exit
这确实会运行爬行器,但爬行器完成后,光标只会闪烁,窗口不会关闭


非常感谢您的帮助。

scrapy是scrapy.bat批处理文件吗?如果是这样,那么您必须在它之前添加一个调用命令:call scrapy crawl logspiderNo-它指的是我的python脚本文件夹中的scrapy.exe文件。然后scrapy.exe程序是一个没有结束的程序。。。您可以通过打开第二个cmd.exe会话,输入tasklist并查看scrapy.exe是否处于活动状态来测试这一点。我在爬网期间运行tasklist,在爬行器说它已关闭后运行。Scrapy.exe在爬网过程中出现在任务列表上,但在蜘蛛说它已关闭后就不在了。