<分区>
我已经创建了一些 Java 代码来测量延迟、数据包大小和带宽。
计算延迟所需的方程式是什么?
这是我目前使用的但不确定它是否正确:
//latency = packetsize / delay + bandwidth
System.out.println("latency is " + (len*2) / (duration + transferRateMb));
编辑 长度乘以 2 以给出以字节为单位的正确值
duration 是 ping 完成所用的时间
传输速率由 :
double transferRateMb = ((len*524288.0) / (duration/ 1000000000.0) ) ; //amount of data in megabytes transferred in 1 second.
看了各种攻略,看不懂,这只是一个简单的项目需求
同样这将运行 20 次并取平均值
有什么想法吗?