所以,我的问题有点基于经验,所以我想知道那些尝试加载数据集的人,加载的合理数据量是多少。我的用户拥有相对较大的管道,因此我不必担心调制解调器用户,但我确实担心处理时间。我猜我的限制在 300-1024k 范围内,但是有人有办法或网站做了一些更明确的事情吗?
我遇到过这个资源。这是 2005 年的内容,所以我认为它已经过时了,尽管总体教训似乎相当合理:
http://blogs.nitobi.com/dave/2005/09/29/javascript-benchmarking-iv-json-revisited/
我也遇到过这个:
http://www.jamesward.com/census/
还有什么值得检查的吗?
最佳答案
网络服务器可以(并且应该)使用 gzip 将典型的 JSON 数据包压缩到大约 100MB。其初始大小的 10%。所以你真的在看30-100k。如果这些响应可以被缓存,那么问题就更小了。
传输的大小不应该成为数据包是否“太多”的决定因素。相反,请查看浏览器处理此数据包需要多长时间(更新 UI 等)。
实际上解析 JSON 应该非常快,最多可达数兆字节的数据。将其转变为 UI 中的新内容很大程度上取决于您生成的 HTML 的复杂程度。
关于javascript - 发送到 Web 客户端多少 JSON 才算是过多?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/723206/