Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/linux/27.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python中的分段错误´;s根辛_Python_Linux_Segmentation Fault_Virtual Machine_Word2vec - Fatal编程技术网

Python中的分段错误´;s根辛

Python中的分段错误´;s根辛,python,linux,segmentation-fault,virtual-machine,word2vec,Python,Linux,Segmentation Fault,Virtual Machine,Word2vec,有时运行以下脚本半小时后,会出现Segmentantion错误: 2016-02-09 21:01:21256:信息:进度:在句子#9130000处,处理201000982个单词,保留85047862个单词类型 分段故障 我正在虚拟机(VMware workstation 12.0.1)上使用Mint,使用gensim-0.12.3-py2.7-linux-x86_64.egg(Python 2.7.6)的word2vec版本 编码:utf-8 在[1]中: 导入操作系统,nltk 输入io 导

有时运行以下脚本半小时后,会出现Segmentantion错误: 2016-02-09 21:01:21256:信息:进度:在句子#9130000处,处理201000982个单词,保留85047862个单词类型 分段故障

我正在虚拟机(VMware workstation 12.0.1)上使用Mint,使用gensim-0.12.3-py2.7-linux-x86_64.egg(Python 2.7.6)的word2vec版本

编码:utf-8 在[1]中: 导入操作系统,nltk 输入io 导入gensim,日志记录 导入nltk

logging.basicConfig(格式='%(asctime)s:%(levelname)s:%(message)s',level=logging.INFO)

在[2]中: 类mycentenses(对象):

在[3]中: 句子=我的意思(“/home/arie/extracted”)

在[]中: model=gensim.models.Word2Vec(句子)

我刚看到内存监视器,它看起来随时都会崩溃:

每50秒:免费-2016年3月15日星期二19:55:36

         total       used       free     shared    buffers     cached
成员:98377735210215411232 -/+缓冲区/高速缓存:6360 3476 掉期:20442044

每50秒:免费-2016年3月15日星期二19:59:06

         total       used       free     shared    buffers     cached
成员:9837856312741108 -/+缓冲区/高速缓存:8453 1384
交换:2044 12 2032

问题格式有点错误。您能告诉我您机器的内存大小,以及语料库的大约词汇量吗?分配给VR Mint的内存为9.9 GB(主机为16 GB windows 7)。语料库是使用WikiExtractor提取的Wikipidia转储(44.717项,总计3.4 GB)。很抱歉格式化。。。
         total       used       free     shared    buffers     cached