我有一个移动应用程序 (iOS),它通过 Comet 服务器 (APE) 向网络应用程序 (JS) 发送指令。对于每条指令,Web 应用程序以“ack”消息响应,并标有指令 ID。我想要的是计算 Web 应用程序的平均响应时间。
指令的频率可能从每秒 5 条到每隔一秒不等(甚至更长,具体取决于用户)。
我天真的解决方案是为每次发送和接收添加时间戳,然后计算差异之间的平均值。这是非常低效的,因为该算法(基本的 for 循环)会使应用程序停止并在处理 acks 时造成延迟。另一种解决方案是使用最近十个时间戳,从而限制计算的响应次数。
但是,我对这个解决方案并不满意,我正在寻找一些引用资料,可以为我提供有关我所面临的问题的任何信息。
最佳答案
这是我使用的,不是基于任何科学 Material ,但对我有用...
我们保留最后 10 个的平均值 + 我们保留最差 2 个曾经 和最好 2 个曾经。 我们不保留任何数据,因此自应用程序服务器重新启动以来衡量最差/最好的“有史以来”。
然后我们对这 14 个进行平均。
希望这对您有所帮助。
关于javascript - 计算响应时间的引用资料,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/4942504/