Warning: file_get_contents(/data/phpspider/zhask/data//catemap/9/git/24.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
如何避免cloudbees在每次作业运行时克隆我的github存储库?_Git_Github_Cloudbees - Fatal编程技术网

如何避免cloudbees在每次作业运行时克隆我的github存储库?

如何避免cloudbees在每次作业运行时克隆我的github存储库?,git,github,cloudbees,Git,Github,Cloudbees,似乎每次我在cloudbees上的工作运行时,他们都会得到一个“新鲜”的工作空间。此时,它需要从github克隆git存储库。存储库相当大,每次克隆都需要几十分钟 有什么方法可以避免这种情况吗?如果可以使用上次使用的云从来运行您的构建,那么您的旧工作区将可用,Jenkins将只更新您的源代码(类似于git pull)。但有时由于各种原因,从机被回收或停止使用,工作区被丢弃,在这种情况下,将执行新的签出 虽然运行频率越高的作业不太可能需要重新签出,但您无法具体控制这一点 (我假设在构建日志的开头有

似乎每次我在cloudbees上的工作运行时,他们都会得到一个“新鲜”的工作空间。此时,它需要从github克隆git存储库。存储库相当大,每次克隆都需要几十分钟


有什么方法可以避免这种情况吗?

如果可以使用上次使用的云从来运行您的构建,那么您的旧工作区将可用,Jenkins将只更新您的源代码(类似于
git pull
)。但有时由于各种原因,从机被回收或停止使用,工作区被丢弃,在这种情况下,将执行新的签出

虽然运行频率越高的作业不太可能需要重新签出,但您无法具体控制这一点


(我假设在构建日志的开头有一个通知,说明没有现有的签出,也没有与Git相关的错误消息给出无法重新使用签出的具体原因。)

是的,没有错误消息,只是说“克隆”,而不是“从中获取更改”。真倒霉谢谢你的回复!至少我知道我没有错过任何东西。