Python 使用sharedmem在进程之间共享大numpy数组时出现问题

Python 使用sharedmem在进程之间共享大numpy数组时出现问题,python,arrays,numpy,shared-memory,Python,Arrays,Numpy,Shared Memory,我想在一些进程之间共享两个大的numpy阵列(大约6GB)。因此,我尝试使用sharedmem.empty()创建它们数组,然后将数据复制到其中,但遇到了一个错误,无法解决: 代码: 此代码适用于简单数据: >>> a = numpy.array([1,2,3,4,5]) >>> b = sharedmem.empty(5) >>> b anonymousmemmap([0., 0., 0., 0., 0.]) >>> nu

我想在一些进程之间共享两个大的numpy阵列(大约6GB)。因此,我尝试使用sharedmem.empty()创建它们数组,然后将数据复制到其中,但遇到了一个错误,无法解决:

代码:

此代码适用于简单数据:

>>> a = numpy.array([1,2,3,4,5])
>>> b = sharedmem.empty(5)
>>> b
anonymousmemmap([0., 0., 0., 0., 0.])
>>> numpy.copyto(b, a)
>>> b
anonymousmemmap([1., 2., 3., 4., 5.])
但在实际数据中,我面临着这样的问题:

  File "Python38\lib\site-packages\sharedmem\sharedmem.py", line 891, in __new__
    self = numpy.ndarray.__new__(subtype, shape, dtype=descr, buffer=mm, order=order)
TypeError: buffer is too small for requested array
我非常确定我有足够的内存来分配这个数组(我使用了大小相同的numpy.zero)

我怎样才能解决这个问题

另外,我正在windows上使用python3.8,我不能因为其他原因更改它

  File "Python38\lib\site-packages\sharedmem\sharedmem.py", line 891, in __new__
    self = numpy.ndarray.__new__(subtype, shape, dtype=descr, buffer=mm, order=order)
TypeError: buffer is too small for requested array