假设我:
- fork 了一个 100 MB 的存储库;
- 只添加了一个小提交;
- 一个月后,上游存储库得到了很多提交,现在有 200 MB;
- 现在我想更新我的 fork 存储库。
我看到了两种方法:
- 像往常一样推送更新版本。缺点:它上传 100 MB 到网络。效率低下。
- 完全删除 fork 的存储库并重新 fork 它,然后上传更改。缺点:设置麻烦。
如何高效地做到这一点?
最佳答案
尽管我还没有看到一个存储库增长那么快1我会尝试回答:
- 方法二将对网络产生更大的影响,因为您必须重新
克隆
整个存储库。 - 有similar question几天前:可以通过 GitHubs Web 界面通过创建一个反向 pull 请求 进行 merge ,但这会创建额外的 merge 提交,您仍然需要下载那 100 MB。
- 如果您可以通过更大的带宽访问服务器:在该机器上执行更新,速度会更快,但您仍然需要下载那 100 MB.
简而言之:只针对你的第一点,这是最直接的。
1 我对整个 linux 内核历史的最后一次克隆大小为 900 MB。
关于git - 如何在不通过我的本地计算机抽取所有内容的情况下将 Github 上的一个分支更新到上游版本?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/21782347/