我有一个非常大的网络跟踪文件,每个数据包上都有两个时间戳。我计算了每对连续数据包的时间戳之间的差异。
delta_ts1 = ts1(packet N) - ts1(packet N-1)
delta_ts2 = ts2(packet N) - ts2(packet N-1)
假设 ts_2 是引用值,我想针对 ts_2 测试 ts_1。
和方差 ts_variance = (delta_ts2 - mean_ts)^2/packet_count
现在上述方法的问题是,直到我到达文件末尾我才得到平均值。我想在单个解析中实现这一点。我正在考虑使用如下方法
running_mean_till_now += ts2/packet_count_till_now
ts_variance = (delta_ts2 - running_mean_till_now)^2/packet_count_till_now
这种方法可以接受吗?通过使用这种方法,估计方差和标准差的准确度会有多高。?
最佳答案
公式不太对。 Here你有一个你可以使用的在线算法的描述。
关于在单个解析中计算方差和标准差,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/18689903/