Python 2.7 基于scrapy的网络蜘蛛在被Pyinstaller打包后会崩溃

Python 2.7 基于scrapy的网络蜘蛛在被Pyinstaller打包后会崩溃,python-2.7,scrapy,pyqt4,pyinstaller,Python 2.7,Scrapy,Pyqt4,Pyinstaller,基于scrapy,我构建了一个python网络蜘蛛。基于PyQt4的Windows GUI与此网络蜘蛛相结合。有一些细节: 操作系统:Windows7 x64 Python:2.7.6 IDE:PyCharm GUI:PyQt4 蜘蛛:痒 软件包工具:Pyinstaller 当我在PyCharm下运行它时,一切都很好,我得到了除此之外的所有东西。然后,我将这个项目打包在一个独立的*.exe文件中,我得到了一些错误 Traceback (most recent call last): File

基于scrapy,我构建了一个python网络蜘蛛。基于PyQt4的Windows GUI与此网络蜘蛛相结合。有一些细节:

  • 操作系统:Windows7 x64
  • Python:2.7.6
  • IDE:PyCharm
  • GUI:PyQt4
  • 蜘蛛:痒
  • 软件包工具:Pyinstaller
当我在PyCharm下运行它时,一切都很好,我得到了除此之外的所有东西。然后,我将这个项目打包在一个独立的*.exe文件中,我得到了一些错误

Traceback (most recent call last):
File "multiprocessing\process.py", line 258, in _bootstrap
File "scholar\SpiderProcess.py", line 81, in run
File "site-packages\scrapy\utils\project.py", line 61, in get_project_settings
File "site-packages\scrapy\settings\__init__.py", line 109, in setmodule
File "importlib\__init__.py", line 37, in import_module
ImportError: No module named settings
这是我的项目文件树:

ScholarSpider
|____scrapy.cfg
|____main.py
|____installer.py
|____scholar
     |______init__.py
     |____items.py
     |____pipelines.py
     |____settings.py
     |____SpiderProcess.py
     |____spider
          |_______init__.py
          |____PLOS_Spider.py
          |____ASM_Spider.py
main.py是条目

installer.py是Pyinstaller文件

# installer.py
import os
if __name__=='__main__':
    from PyInstaller.__main__ import run
    opts=['-c','-F','main.py',
          '-p', r'D:\Program Files\Python 2.7.6\Lib\site-packages\scrapy;'
                r'D:\Program Files\Python 2.7.6\Lib\site-packages\scrapy\utils']
    run(opts)
spider正在由multiprocess.process(在SpiderProcess.py中实现)创建的独立进程中运行。它在我单击GUI中的按钮时启动。每次单击按钮,它发生故障并发送错误消息。令我惊讶的是,设置.py模块存在于我的项目中,并且在PyCharm中一切正常

有人能告诉我怎么了吗

谢谢大家!