Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/330.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
python中的sklearn内存错误_Python_Numpy - Fatal编程技术网

python中的sklearn内存错误

python中的sklearn内存错误,python,numpy,Python,Numpy,我尝试用Python2.7和scipy 0.18.1实现一个简单的机器学习应用程序。我共享示例代码a和下面的火车数据下载链接,您可以复制粘贴并运行,我的问题是当我收到行时,我有“内存错误” 预测=模型。预测概率(测试数据[特征]) 我在网上搜索了一下,但无法修复。我感谢任何帮助 在这里,您可以通过以下链接找到示例数据: 编辑: stacktrace ss错误: 如果你试着分块预测呢?例如,您可以尝试: N_split = 10 split_data = np.array_split(test_d

我尝试用Python2.7和scipy 0.18.1实现一个简单的机器学习应用程序。我共享示例代码a和下面的火车数据下载链接,您可以复制粘贴并运行,我的问题是当我收到行时,我有“内存错误”

预测=模型。预测概率(测试数据[特征])

我在网上搜索了一下,但无法修复。我感谢任何帮助

在这里,您可以通过以下链接找到示例数据:

编辑: stacktrace ss错误:

如果你试着分块预测呢?例如,您可以尝试:

N_split = 10
split_data = np.array_split(test_data[features], N_split)
split_predicted = []
for data in split_data:
    split_predicted.append( model.predict_proba(data) )

predicted = np.concatenate(split_predicted)

内存不足,无法执行您打算执行的进程

您有多少内存??同样在回溯中,您在哪一行得到内存错误??16 GB VENGEANCE 3000MHZ,我在任务管理器中只检查了ram%30,在use32位或64位python中?16 GB的30%大于32位进程可以分配的内存。请共享错误的回溯。是的,它是x64 2.7.12
N_split = 10
split_data = np.array_split(test_data[features], N_split)
split_predicted = []
for data in split_data:
    split_predicted.append( model.predict_proba(data) )

predicted = np.concatenate(split_predicted)