Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/287.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/windows/16.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 学习工作=1不在Windows上并行_Python_Windows_Parallel Processing_Scikit Learn_Joblib - Fatal编程技术网

Python 学习工作=1不在Windows上并行

Python 学习工作=1不在Windows上并行,python,windows,parallel-processing,scikit-learn,joblib,Python,Windows,Parallel Processing,Scikit Learn,Joblib,我试图利用sklearn中可用的并行化选项,但是设置n_作业=1似乎没有启动任何并行进程。。。当看计算机性能时,只有12.5%的CPU容量被使用(我有一个Intel Core i7,4核,8线程;也就是说,它只使用一个线程…) 我尝试了sklearn的不同功能,并从单独的模块导入了我的函数(使用sklearn函数的函数),但仍然是一样的。我还发现了许多其他的答案,但都是针对Linux的,而我使用的是Windows10。此外,我在Linux上尝试过n_jobs功能,没有出现任何错误,所以我猜它一定

我试图利用sklearn中可用的并行化选项,但是设置n_作业=1似乎没有启动任何并行进程。。。当看计算机性能时,只有12.5%的CPU容量被使用(我有一个Intel Core i7,4核,8线程;也就是说,它只使用一个线程…)

我尝试了sklearn的不同功能,并从单独的模块导入了我的函数(使用sklearn函数的函数),但仍然是一样的。我还发现了许多其他的答案,但都是针对Linux的,而我使用的是Windows10。此外,我在Linux上尝试过n_jobs功能,没有出现任何错误,所以我猜它一定是介于joblib和Windows/Intel之间,但我不知道它可能是什么。。。我曾经读过类似joblib在Windows上处理Intel虚拟内核时遇到一些问题,但不确定在这种情况下是否已经有了解决方案

我使用的特定代码行是:

labels=MeanShift(带宽=25,bin\u播种=True,n\u作业=4)。拟合预测(X)
其中X是6557436x3的numpy矩阵

我猜在执行代码时CPU的处理能力应该是50%,但是,正如我所说的,它只有12.5%


提前谢谢

除了明显的核心使用,我也可以在Windows10上复制类似的行为。调用ElasticNetCV.fit()
n_jobs=None
是最快的(占用任务管理器上50%的CPU),然后
n_jobs=1
然后
n_jobs=2
依此类推,逐渐变慢,直到
n_jobs=4
<代码>n_作业=-1比所有作业都慢。除了
n_jobs=None
之外的所有作业似乎都以100%的速度最大化CPU使用率,但速度会逐渐慢于下一个作业。英特尔酷睿i7-7700@4.2GHz。4核和8个逻辑处理器。使用python 3.6.10和sklearn 0.20.1。不是特别大的问题集。1000个样本,30个特征,10个L1_比率。