Python 多处理强制空闲处理器继续

Python 多处理强制空闲处理器继续,python,multiprocessing,Python,Multiprocessing,在上面的示例代码中,每个进程都将值转储到文件中。那么,假设我有10个内核,其中8个已经完成,还有2个还在忙着函数Fn2。有没有办法强迫空闲的处理器继续执行上面的第1行,因为我剩下的代码并不取决于是否所有的值都被转储到fname我的问题出了什么问题,反对票先生?首先,这里实际上没有运行Fn2。第二,流程池中的流程只执行发送到池中的作业;他们不会“继续”通过提交作业请求的代码,因为这不是他们的工作。因此,这值得进行否决表决,因为你知道一些事情,而我不知道。如果你想使用多个进程来执行Fn2之后的工作,

在上面的示例代码中,每个进程都将值转储到文件中。那么,假设我有10个内核,其中8个已经完成,还有2个还在忙着函数
Fn2
。有没有办法强迫空闲的处理器继续执行上面的
第1行
,因为我剩下的代码并不取决于是否所有的值都被转储到
fname

我的问题出了什么问题,反对票先生?首先,这里实际上没有运行
Fn2
。第二,流程池中的流程只执行发送到池中的作业;他们不会“继续”通过提交作业请求的代码,因为这不是他们的工作。因此,这值得进行否决表决,因为你知道一些事情,而我不知道。如果你想使用多个进程来执行
Fn2
之后的工作,请将该工作拆分为多个作业,你可以分别提交到池中,然后将它们提交到池中。请确保您没有使用像
map
这样的阻塞调用。这些都不是反对票解释。我投了反对票,因为你的代码没有按你说的做。
Data = [1, 2, 3, 4, 5]
def Fn2(obj):
  fname = str(obj) + 'myfile.p'
  pickle.dump(2*obj, open(fname, 'wb'))

p = Pool(multiprocessing.cpu_count())
p.map(Fn2, Data)
Print "process after the multi-processing" #---Line 1 for question below