Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/svn/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
一个大型SVN合并与几个小型合并-超时!_Svn_Merge_Timeout - Fatal编程技术网

一个大型SVN合并与几个小型合并-超时!

一个大型SVN合并与几个小型合并-超时!,svn,merge,timeout,Svn,Merge,Timeout,我目前正在将我的主干合并到另一个分支中。其间有近3000次提交。SVN repo驻留在远程服务器上,当我在全套修订版上进行合并时,SVN失败,表示与SVN服务器的连接超时。考虑到合并操作太多,我尝试在前200次提交之间进行较小的合并,但没有超时,因此我继续以200的增量进行合并 这会引起问题吗?(未合并完整的修订集?) 有没有一种方法可以防止SVN在合并大量更改时超时 更新:错误消息 svn: REPORT of '/repos/somerepo/with/code': timed out wa

我目前正在将我的主干合并到另一个分支中。其间有近3000次提交。SVN repo驻留在远程服务器上,当我在全套修订版上进行合并时,SVN失败,表示与SVN服务器的连接超时。考虑到合并操作太多,我尝试在前200次提交之间进行较小的合并,但没有超时,因此我继续以200的增量进行合并

这会引起问题吗?(未合并完整的修订集?)

有没有一种方法可以防止SVN在合并大量更改时超时

更新:错误消息

svn: REPORT of '/repos/somerepo/with/code': timed out waiting for server (http://my.svn.server.com)

听起来像是客户端超时。取决于您的客户端,但请查看
[home directory]/.subversion/servers
文件中的
[global]
部分中名为
http timeout
的字段


GUI工具通常对此有一个选项,有时会错误地将其标记为与代理相关的设置,即使所有超时都是全局的(例如IntelliJ)

。我将它设置为3秒,所以当我尝试移除它时,它仍然超时。然后我添加了一个更高的值(180),结果就完成了。当我试图拉下所有标签,而不仅仅是我工作的主干时,我遇到了这个问题。我遇到了这个问题,是因为我们在存储库中设置了一个预提交挂钩,禁用挂钩使我的巨大合并提交速度极快!