我的沙发数据库中有一个 ~10k 个条目(~30Mo,无附件)数据库。
使用 Pouchdb 浏览器端,从沙发上复制时,确实需要一段时间才能完成...
令我惊讶的是我的沙发在此期间收到的请求数量(数千!,我猜和文件一样多)——这正常吗?
有没有办法“批量”这些请求并通常加速复制过程?
谢谢你。
最佳答案
我假设您正在使用 PouchDB.replicate
功能
在这种情况下,尝试修改 batch_size
选项:
PouchDB.replicate('mydb', 'http://localhost:5984/mydb', {batch_size: large_val})
哪里
large_val
高于默认值 100
.值越高,复制速度越快,但它使用的内存越多,所以要小心。见 API reference
编辑:还要注意选项
batches_limit
默认为 10
.这是任何时候可以并行运行的请求数,因此内存中的文档数等于 batch_size * batches_limit
.
关于couchdb - pouchdb 从 couchdb : very slow 复制,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/26369799/