Python MemoryError:无法分配115。形状为(1122112288)且数据类型为float64的数组的GiB

Python MemoryError:无法分配115。形状为(1122112288)且数据类型为float64的数组的GiB,python,machine-learning,computer-vision,feature-extraction,orb,Python,Machine Learning,Computer Vision,Feature Extraction,Orb,我正在尝试传递一个函数,该函数返回一个扁平的图像和标签数组,我的操作系统是windows 10。此外,当我尝试调用函数时,我发现了标题中描述的错误 MemoryError: Unable to allocate 115. GiB for an array with shape (1122, 1122, 12288) and data type float64 我想做的是:我想在一个函数中从带有关键点的数据集中提取特征,并对我的数据集使用train_test_split,但即使我尝试用关键点展平

我正在尝试传递一个函数,该函数返回一个扁平的图像和标签数组,我的操作系统是windows 10。此外,当我尝试调用函数时,我发现了标题中描述的错误

MemoryError: Unable to allocate 115. GiB for an array with shape (1122, 1122, 12288) and data type float64
我想做的是:我想在一个函数中从带有关键点的数据集中提取特征,并对我的数据集使用train_test_split,但即使我尝试用关键点展平图像,也会得到错误,展平的唯一方法是没有关键点的相同图像

以下是我是如何尝试的:

def load_image_files(fullpath, dimension=(35, 35)):
    flat_data = []
    orb = cv2.ORB_create(edgeThreshold=1, nfeatures=22)
    key_points = [cv2.KeyPoint(64, 9, 10), 
    cv2.KeyPoint(107, 6, 10), 
    cv2.KeyPoint(171, 10, 10)]
    kp, des = orb.compute(imageList, key_points)
    kparray = cv2.drawKeypoints(imageList, kp, None, flags=cv2.DRAW_MATCHES_FLAGS_DRAW_RICH_KEYPOINTS); 
    img_resized = resize(kparray, dimension, anti_aliasing=True, mode='reflect')
    img_resized = img_resized.flatten()
    flat_data.append(img_resized)
    images.append(flat_data)

        flat_data = np.array(flat_data)
        images = np.array(images)
        return Bunch(data=flat_data,
                     images=images)


在函数的此处。您正在将所有展平图像附加到一个列表中,这会导致此内存错误。相反,您可以使用dask数组来存储这些图像。dask数组使用硬盘来存储非常大的数据,以适应内存。dask是一个类似于sparks的python库,专为大数据而设计

在函数中。您将所有展平图像附加到一个列表中,这会导致此内存错误。相反,您可以使用dask数组来存储这些图像。dask数组使用硬盘来存储非常大的数据,以适应内存。dask是一个类似于sparks的python库,专为大数据而设计

通常您会为此编写批处理生成器,因此一次只能将数据集的一小部分加载到内存中。你用什么来训练模型?我用train_test_split和OneVsRest进行多类分类。我怎么能写小批量呢?我不使用神经网络。这适用于任何使用SGD的算法,包括逻辑回归。我这个问题的意思是你在使用什么框架(sklearn,tf,statmodels)?对不起,我在使用sklearnus,通常你会为此编写批处理生成器,所以一次只能将数据集的一小部分加载到内存中。你用什么来训练模型?我用train_test_split和OneVsRest进行多类分类。我怎么能写小批量呢?我不使用神经网络。这适用于任何使用SGD的算法,包括逻辑回归。我这个问题的意思是你在使用什么框架(sklearn,tf,statmodels)?对不起,我在使用sklearnTried,使用Dask数组:flat_data=da.from_数组(flat_data,chunks=(200361))target=da.from_数组(target,chunks=(200361))images=da.from_数组(images,chunks=(200361))得到了这个错误:ValueError:chunk加起来不符合形状。Got chunks=(200361),shape=(1122,)这是因为断开的数据块大小应该相等。最简单的解决方案是确定样本数,以便在您的情况下将其分解为200个数据块。假设您有10402个数据块,则删除2个样本,这样剩余的样本数就可以精确地分为200个数据块的一部分。因此,另一个解决方案可以将您的数据存储为一些块的numpy数组。在您的示例中,假设您正在生成10000个样本。然后,不要将其附加到列表中。您可以附加500个可以放入内存中的样本。然后,您可以将该数组转储为pickle dump或使用np.save fun,然后清除附加的列表。再次附加接下来的500个样本并另存为numpy数组。在培训期间您可以编写一个生成器,它将逐个加载这些数组并训练您的模型。尝试使用Dask数组,如下所示:flat_data=da.from_数组(flat_data,chunks=(200361))target=da.from_数组(target,chunks=(200361))images=da.from_数组(images,chunks=(200361))得到了这个错误:ValueError:chunk加起来不符合形状。Got chunks=(200361),shape=(1122,)这是因为断开的数据块大小应该相等。最简单的解决方案是确定样本数,以便在您的情况下将其分解为200个数据块。假设您有10402个数据块,则删除2个样本,这样剩余的样本数就可以精确地分为200个数据块的一部分。因此,另一个解决方案可以将您的数据存储为一些块的numpy数组。在您的示例中,假设您正在生成10000个样本。然后,不要将其附加到列表中。您可以附加500个可以放入内存中的样本。然后,您可以将该数组转储为pickle dump或使用np.save fun,然后清除附加的列表。再次附加接下来的500个样本并另存为numpy数组。在培训期间您可以编写一个生成器,它将逐个加载这些阵列并训练您的模型。