Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/email/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Julia SLURM sbatch是否会跨节点自动复制用户脚本?_Julia_Cluster Computing_Distributed Computing_Slurm_Sbatch - Fatal编程技术网

Julia SLURM sbatch是否会跨节点自动复制用户脚本?

Julia SLURM sbatch是否会跨节点自动复制用户脚本?,julia,cluster-computing,distributed-computing,slurm,sbatch,Julia,Cluster Computing,Distributed Computing,Slurm,Sbatch,SLURM(特别是sbatch)是否应该自动将用户脚本(而不是作业配置脚本)复制到集群的计算节点以供执行?从我的登录节点执行sbatch文件后,将在我的一个计算节点上创建输出文件,但包含以下内容: ERROR: could not open file /home/pi/slurm.jl Stacktrace: [1] include at ./boot.jl:328 [inlined] [2] include_relative(::Module, ::String) at ./loading

SLURM(特别是sbatch)是否应该自动将用户脚本(而不是作业配置脚本)复制到集群的计算节点以供执行?从我的登录节点执行sbatch文件后,将在我的一个计算节点上创建输出文件,但包含以下内容:

ERROR: could not open file /home/pi/slurm.jl
Stacktrace:
 [1] include at ./boot.jl:328 [inlined]
 [2] include_relative(::Module, ::String) at ./loading.jl:1105
 [3] include(::Module, ::String) at ./Base.jl:31
 [4] exec_options(::Base.JLOptions) at ./client.jl:287
 [5] _start() at ./client.jl:460
我正在用
sbatch julia.sbatch
运行批处理脚本

julia.sbatch:

#!/bin/bash
#SBATCH --nodes=4
#SBATCH --ntasks=4
#SBATCH --time=00:15:00
#SBATCH --output=julia.out
#SBATCH --job-name=julia-job

julia slurm.jl

或者脚本(slurm.jl)是否应位于可供所有节点访问的共享存储上?

slurm不会将提交脚本以外的文件复制到计算节点。从:

Slurm不会自动将可执行文件或数据文件迁移到分配给作业的节点。文件必须存在于本地磁盘或某些全局文件系统(例如NFS或Lustre)中

在大多数集群上,
/home
目录是在每个登录和计算节点上共享的NFS文件系统