Python 函数在多进程中不返回,无错误

Python 函数在多进程中不返回,无错误,python,spacy,multiprocess,Python,Spacy,Multiprocess,我正在使用池运行多个进程 import spacy import multiprocessing import logging # global variable nlp_bert = spacy.load("en_trf_bertbaseuncased_lg") logging.basicConfig(level=logging.DEBUG) def job_pool(data, job_number, job_to_do, groupby=None, split_c

我正在使用池运行多个进程

import spacy
import multiprocessing
import logging

# global variable
nlp_bert = spacy.load("en_trf_bertbaseuncased_lg")
logging.basicConfig(level=logging.DEBUG)


def job_pool(data, job_number, job_to_do, groupby=None, split_col=None, **kwargs):
    pool = multiprocessing.Pool(processes=job_number)
    jobs = pool.map(job_to_do, data)
    return jobs


def job(slice):
    logging.debug('this shows')
    w1 = nlp_bert('word')
    w2 = nlp_bert('other')
    logging.debug(w1.similarity(w2))
    logging.debug("this doesn't")


job_pool([1, 2, 3, 4], 4, job)
nlp_bert函数不返回任何内容,也没有错误。我怎样才能知道出了什么问题?我已经将日志设置为调试级别

该函数在多进程之外工作-即,只需在脚本中编写它并运行以下操作

import spacy
nlp_bert = spacy.load("en_trf_bertbaseuncased_lg")
w1 = nlp_bert('word')
w2 = nlp_bert('other')
print(w1.similarity(w2))

0.8381155446247196
我正在使用:

  • Python 3.8.2
  • spacy版本:2.3.2

事实证明,这是pytorch在子进程中运行多线程的一个已知问题,导致死锁

解决方法是添加以下内容:

import torch

torch.set_num_threads(1)

这回答了你的问题吗?不,我可以让进程记录其他内容,调用函数会导致挂起,但仅在多进程中。