Warning: file_get_contents(/data/phpspider/zhask/data//catemap/6/multithreading/4.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/9/git/25.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Multithreading git gc的线程数取决于repo大小_Multithreading_Git_Memory_Git Gc - Fatal编程技术网

Multithreading git gc的线程数取决于repo大小

Multithreading git gc的线程数取决于repo大小,multithreading,git,memory,git-gc,Multithreading,Git,Memory,Git Gc,我可以在Git中对大型存储库使用单线程压缩,而对小型存储库使用通常的并行压缩吗?如“pack.threads=1”,如果不容易放入momory,则为“pack.threads=4” 正如我所关注的,多线程的“git-gc”需要大量内存,并且比单线程的刷新(或失败)时间更长 我希望它能在小型回购中快速运行,在大型回购中不会失败。您可以为每个存储库配置pack.threads,但我怀疑是否有一个根据存储库大小自动执行此操作的设置。好的,我忘了它也可以是非全局选项。此设置的性能是否受存储库大小的影响?

我可以在Git中对大型存储库使用单线程压缩,而对小型存储库使用通常的并行压缩吗?如“pack.threads=1”,如果不容易放入momory,则为“pack.threads=4”

正如我所关注的,多线程的“git-gc”需要大量内存,并且比单线程的刷新(或失败)时间更长


我希望它能在小型回购中快速运行,在大型回购中不会失败。

您可以为每个存储库配置pack.threads,但我怀疑是否有一个根据存储库大小自动执行此操作的设置。

好的,我忘了它也可以是非全局选项。此设置的性能是否受存储库大小的影响?我认为这只与内核的数量有关?@Arafangion,多线程=>需要更多的内存(甚至可能成比例)。内存不足=>交换=>速度慢。