Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/linux/28.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Linux Condor Vanilla universe正在提交计算机上运行_Linux_Raspberry Pi_Condor - Fatal编程技术网

Linux Condor Vanilla universe正在提交计算机上运行

Linux Condor Vanilla universe正在提交计算机上运行,linux,raspberry-pi,condor,Linux,Raspberry Pi,Condor,我是新来的秃鹰。我正在用树莓皮做我关于秃鹰的主项目。目前,我已将两个pi连接在一个秃鹰池中;我指的是“”网站来运行作业。 但问题是作业本身正在提交机器上运行 有谁能帮我一下吗。这将是一个很大的帮助 提交文件是 Universe = vanilla Executable = simple should_transfer_files = yes when_to_transfer_output = on_exit MultiCPUJob = True transfer_input_files =

我是新来的秃鹰。我正在用树莓皮做我关于秃鹰的主项目。目前,我已将两个pi连接在一个秃鹰池中;我指的是“”网站来运行作业。 但问题是作业本身正在提交机器上运行

有谁能帮我一下吗。这将是一个很大的帮助

提交文件是

Universe   = vanilla
Executable = simple
should_transfer_files = yes
when_to_transfer_output = on_exit
MultiCPUJob = True
transfer_input_files = simple.dag
Arguments  = 4 10
Log        = simple.log
Output     = simple.out
Error      = simple.error
Queue
日志文件

pi@raspberrypi:~/job $ cat simple.log

000 (012.000.000) 02/25 06:00:21 Job submitted from host: <10.0.101.122:46766>
    DAG Node: simple

...
001 (012.000.000) 02/25 06:00:31 Job executing on host: <10.0.101.122:36154>
...

006 (012.000.000) 02/25 06:00:35 Image size of job updated: 7

        0  -  MemoryUsage of job (MB)

        0  -  ResidentSetSize of job (KB)
...

005 (012.000.000) 02/25 06:00:36 Job terminated.

        (1) Normal termination (return value 0)

                Usr 0 00:00:00, Sys 0 00:00:00  -  Run Remote Usage

                Usr 0 00:00:00, Sys 0 00:00:00  -  Run Local Usage

                Usr 0 00:00:00, Sys 0 00:00:00  -  Total Remote Usage

                Usr 0 00:00:00, Sys 0 00:00:00  -  Total Local Usage

        56  -  Run Bytes Sent By Job

        6230  -  Run Bytes Received By Job

        56  -  Total Bytes Sent By Job

        6230  -  Total Bytes Received By Job

        Partitionable Resources :    Usage  Request Allocated

           Cpus                 :                 1         1

           Disk (KB)            :       14       10     76532

           Memory (MB)          :        0        1       434

...

pi@raspberrypi:~/job $
pi@raspberrypi:~/job$cat simple.log
000(012.000.000)02/25 06:00:21从主机提交的作业:
DAG节点:简单
...
001(012.000.000)02/25 06:00:31在主机上执行的作业:
...
006(012.000.000)02/25 06:00:35更新作业的图像大小:7
0-作业的内存(MB)
0-作业的ResidentSetSize(KB)
...
005(012.000.000)02/25 06:00:36作业终止。
(1) 正常终止(返回值0)
Usr 0 00:00:00,Sys 0 00:00:00-运行远程使用
Usr 0 00:00:00,Sys 0 00:00:00-运行本地使用
Usr 0 00:00:00,Sys 0 00:00:00-远程使用总量
Usr 0 00:00:00,Sys 0 00:00:00-本地使用总量
56-运行作业发送的字节
6230-作业接收的运行字节
56-作业发送的总字节数
6230-作业接收的总字节数
可分区资源:已分配使用请求
中央处理器:1
磁盘(KB):141076532
内存(MB):0 1 434
...
pi@raspberrypi:~/工作$

如果作业在提交计算机上运行,则它必须运行STARTD以及SCHEDD、NEG等。。。如果您不需要它,那么可以在/etc/condor/condor_配置(或condor_config.local,具体取决于设置)中将其关闭

如果希望提交节点能够运行某些作业,但不能运行这些作业,则可以指定

需求=目标机器==foo@bar.com

强制它在特定的机器上运行,或者使用任何特定于您的需求的东西过滤掉提交节点,使用ClassAD作为开始节点(使用condor_status-l查看这些)。您可以在配置文件中自己指定这些类广告,然后使用它们设置作业的要求。例如 开始节点:condor_config.local 池=启动池

SubmitNode:submit.dag 要求=池==“启动池” 给自己更好的定制