Warning: file_get_contents(/data/phpspider/zhask/data//catemap/4/r/83.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
R包并行stopCluster方法似乎挂起_R_Parallel Processing - Fatal编程技术网

R包并行stopCluster方法似乎挂起

R包并行stopCluster方法似乎挂起,r,parallel-processing,R,Parallel Processing,我目前正在为我的公司做一个项目,我试图同时预测某些流量的需求。为此,我使用R并行包中的以下语句: cl = makeCluster(number_of_sessions) parRapply(cl, range_list_small, context = context, fun = forecastDemand) stopCluster(cl) 在本例中,上下文对象是包含某些对象的环境。 问题如下,我尝试了一个流的小样本脚本,它工作得非常完美。但是,当我运行大量流的脚本时,它会在stopCl

我目前正在为我的公司做一个项目,我试图同时预测某些流量的需求。为此,我使用R并行包中的以下语句:

cl = makeCluster(number_of_sessions)
parRapply(cl, range_list_small, context = context, fun = forecastDemand)
stopCluster(cl)
在本例中,上下文对象是包含某些对象的环境。
问题如下,我尝试了一个流的小样本脚本,它工作得非常完美。但是,当我运行大量流的脚本时,它会在stopClustercl语句上挂起很长时间,有时挂起几个小时。我在谷歌上搜索了一下,但似乎以前没有人遇到过同样的问题。有人认识到这个问题吗?或者是否有其他方法关闭群集对象。因为在第一次并行会话之后,我的脚本必须为其他计算执行另一个并行会话,并且该并行会话在stopCluster方法完成之前不会启动。

我要访问的群集对象的类是什么?它是一个SOCKcluster?你在用什么操作系统?最后,为什么不能为两个并行会话使用相同的集群对象?是否可能是您的计算机内存不足?