Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/linux/25.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/7/python-2.7/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Linux GNU并行python脚本:pthread_create:无法分配内存_Linux_Python 2.7_Gnu Parallel - Fatal编程技术网

Linux GNU并行python脚本:pthread_create:无法分配内存

Linux GNU并行python脚本:pthread_create:无法分配内存,linux,python-2.7,gnu-parallel,Linux,Python 2.7,Gnu Parallel,我尝试在linux上启动python脚本(带有输入参数) 服务器使用GNU并行 首先,我创建了我的tasks_文件,如下所示: python create_main.py dir1/tt1 dir2 dir3 dir4/tt1 python create_main.py dir1/tt2 dir2 dir3 dir4/tt2 python create_main.py dir1/tt3 dir2 dir3 dir4/tt3 ... dir1/tt1 dir2 dir3 dir4/tt1是pyth

我尝试在linux上启动python脚本(带有输入参数) 服务器使用GNU并行

首先,我创建了我的tasks_文件,如下所示: python create_main.py dir1/tt1 dir2 dir3 dir4/tt1 python create_main.py dir1/tt2 dir2 dir3 dir4/tt2 python create_main.py dir1/tt3 dir2 dir3 dir4/tt3 ... dir1/tt1 dir2 dir3 dir4/tt1是python脚本的参数。每个
行是一个要计算的任务,我在这个文件中总共有200个任务

然后我尝试在服务器的一个节点上启动每个任务,以便
完成这200项任务。下面是我的bash命令:

parallel --jobs 1 --sshloginfile unique-nodelist.txt --workdir  
my_dir_to_python_script < tasks_file
当我启动上述命令时,计算开始工作。
但有时会出现如下所示的错误消息:

OpenBLAS blas_thread_init: pthread_create: Cannot allocate memory
OpenBLAS blas_thread_init: RLIMIT_NPROC 1024 current, 1033195 max


Traceback (most recent call last):

File "create_main.py", line 1, in <module>

from netCDF4 import Dataset
from ._netCDF4 import *
import numpy.core.numeric as _nx
from . import multi array
KeyboardInterrupt
OpenBLAS blas\u thread\u init:pthread\u create:无法分配内存
OpenBLAS blas_thread_init:RLIMIT_NPROC 1024当前,最大1033195
回溯(最近一次呼叫最后一次):
文件“create_main.py”,第1行,在
从netCDF4导入数据集
from.\u netCDF4导入*
将numpy.core.numeric作为_nx导入
从…起导入多数组
键盘中断
在这条信息之后,其他工作似乎仍在继续。 最后我检查了我的结果,发现有些任务是
执行,但有些根本没有计算

在我看来,管理内存似乎存在一些问题,这
只是跳过了一些计算。你能给我解释一下怎么做吗
解决这个问题?非常感谢

致意


shannon

如果您遵循以下命令,您将得到更好的答案:parallel--jobs 1--sshloginfile nodelist.txt--workdir/home/codesOpenBLAS blas_thread_init: pthread_create: Cannot allocate memory OpenBLAS blas_thread_init: RLIMIT_NPROC 1024 current, 1033195 max Traceback (most recent call last): File "create_main.py", line 1, in <module> from netCDF4 import Dataset from ._netCDF4 import * import numpy.core.numeric as _nx from . import multi array KeyboardInterrupt