Warning: file_get_contents(/data/phpspider/zhask/data//catemap/4/unix/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Unix 多次运行同一个cronjob_Unix_Cron Task_Crontrigger - Fatal编程技术网

Unix 多次运行同一个cronjob

Unix 多次运行同一个cronjob,unix,cron-task,crontrigger,Unix,Cron Task,Crontrigger,我有一个python脚本,我想每10分钟执行一次。但是,完成该脚本需要30分钟。(这是一个查询大约1400多台服务器的脚本)。如果我让它每10分钟执行一次,它会终止已经运行的cron作业,还是只启动一个新作业,让另一个继续运行 如果它停止了其他作业,有没有办法让它同时运行多个作业 如果它有任何帮助,这是我对cron作业的命令,该作业计划每10分钟运行一次 cd /home/forge/****.**********.*** && ./status.py 提前谢谢 如果后面的作业

我有一个python脚本,我想每10分钟执行一次。但是,完成该脚本需要30分钟。(这是一个查询大约1400多台服务器的脚本)。如果我让它每10分钟执行一次,它会终止已经运行的cron作业,还是只启动一个新作业,让另一个继续运行

如果它停止了其他作业,有没有办法让它同时运行多个作业

如果它有任何帮助,这是我对cron作业的命令,该作业计划每10分钟运行一次

cd /home/forge/****.**********.*** && ./status.py

提前谢谢

如果后面的作业停止了旧作业,则应在执行的作业描述中处理。但是,如果作业运行30分钟,10分钟后将看到两个status.py作业,20分钟后将看到三个status.py作业。当第一个作业在第30分钟终止时,另一个作业将启动,您仍有三个作业,然后在第40分钟第二个作业终止,另一个作业启动,因此最后您将始终有三个作业运行
status.py


Cron和大多数unix工具一样,并不关心您是否做错了事情。系统只是试图完成你让它做的事情。

运行这个脚本的重叠副本(就像你想做的那样)不会让事情运行得越来越慢,最终让计算机运行到地面吗?也许你想重新思考你的脚本如何工作和/或你想如何使用它。@ScottHunter在最大值时,它将同时重叠3个。这可能会让它慢一点,但我们有一个“专用服务器”来完成这项任务(专用服务器,我指的是专用于这项任务的服务器),并且在我们的主服务器上没有性能影响,客户端将访问它。制作一个简短的脚本,在后台启动真正的脚本,因此,克朗只会看到短的一个…不,在第40分钟,你将只有三份工作!从长远来看,在10*k分钟,您启动了一个作业,但有一个已死亡(30分钟前启动)。累积只在开始时出现。