Warning: file_get_contents(/data/phpspider/zhask/data//catemap/9/git/24.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Git LFS会减少你的回购规模吗?_Git_Bitbucket_Git Lfs - Fatal编程技术网

Git LFS会减少你的回购规模吗?

Git LFS会减少你的回购规模吗?,git,bitbucket,git-lfs,Git,Bitbucket,Git Lfs,我是LFS的新手,需要澄清一下。如果我对数据文件使用LFS,它会减少整体回购规模吗?或者我必须远程存储数据文件 我继承了一份回购协议。有多个超过1 GB的数据文件。它已超过BitBucket 2GB限制,现在处于只读模式 不幸的是,除非您重写历史并清除这些文件,否则repo大小不会缩小。原因是这些文件仍处于提交历史记录中,即使它们已从头部删除 如果您想通过重写历史来实际减少回购规模,请看这里(本教程适用于github,但只需稍作修改,就可以适用于bitbucket) 另外,等效的bitbuck

我是LFS的新手,需要澄清一下。如果我对数据文件使用LFS,它会减少整体回购规模吗?或者我必须远程存储数据文件


我继承了一份回购协议。有多个超过1 GB的数据文件。它已超过BitBucket 2GB限制,现在处于只读模式

不幸的是,除非您重写历史并清除这些文件,否则repo大小不会缩小。原因是这些文件仍处于提交历史记录中,即使它们已从头部删除

如果您想通过重写历史来实际减少回购规模,请看这里(本教程适用于github,但只需稍作修改,就可以适用于bitbucket)


另外,等效的bitbucket教程:

如果有人要克隆我的回购协议,我仍然希望代码在使用数据文件时能够正常工作。如果我像教程中那样重写历史,并将它们重新添加到lfs下,我的repo大小是所有脚本+对大文件的引用,还是包括大文件?我不确定问题是什么,但尝试一下,lfs文件是作为存储库的一部分下载的。唯一的区别是它们既没有版本跟踪,也没有保存在参考列表中。将它们视为指向存储在云中其他位置的文件的符号链接。对不起!当您向lfs添加文件时,远程repo是否保存引用或文件?如果我克隆repo,克隆会引用大文件还是实际文件?repo存储指针文件。但你永远看不到这一点,因为它们在签出时被交换为真实的文件。所有这些都在链接的tutorial.link to files中进行了解释。克隆应自动处理将指向文件的链接替换为实际文件的操作,以便对用户透明。