我们编写了一个监控系统。这个监视器是由代理组成的。每个代理在不同的服务器上运行,并监视特定的服务器资源(RAM、CPU、SQL Server 状态、复制状态、可用磁盘空间、Internet 访问、特定业务指标等)。
代理将他们采取的每一项措施报告给存储这些“观察结果”的中央数据库。
例如,每隔几秒,代理就会在中央数据库中存储一个名为“unprocessed_files”的特定业务指标及其相应的值:
(unprocessed_files, 41)
该值不断被写入我们的数据库(以及许多其他值,如上所述)。
我们现在正在实现一个客户端应用程序,一个屏幕,它显示我们监控的每个事物的状态。那么,我们如何计算什么是“正常”值,什么是错误值?
例如,我们知道如果我们的服务器正常工作,unprocessed_files 将始终接近 0,但也许(我们还不知道)45 是一个可接受的值。
所以问题是,我们是否应该使用标准差来了解可接受的值范围是多少?
ACCEPTABLE_RANGE = AVG(值)+- STDDEV(值)?
当事情进展不顺利时,我们希望用红色进行通知。
最佳答案
对于您的待办事项(未处理的文件)指标,使用标准差来了解何时发出警报(将某些内容变成红色)会因为误报而让您发疯。
为什么?大多数时候,您的积压工作将为零。因此,标准差也将非常接近于零。标准差告诉您指标的变化程度。因此,每当您获得非零积压时,它将超出avg + stdev
范围。
对于待办事项,您可能希望在值 > 1 时将内容变为黄色,在值 > 10 时将内容变为红色。
如果您有“需要多长时间”指标,标准差可能是识别警报条件的有效方法。例如,您可能有一个通常需要大约半秒的 Web 请求,但通常在 0.25 到 0.8 秒之间变化。如果它们突然开始花费 2.5 秒,那么您就知道出了问题。
S tandard deviation is a measurement that makes most sense for a normal distribution (bell curve distribution) 。当您将测量值视为拟合钟形曲线时,您就隐含地假设每个测量值完全独立于其他测量值。该假设对于计算系统的典型指标(积压、事务时间、平均负载等)效果不佳。因此,使用 stdev 可以,但不是很好。您可能很难理解 stdev 数字:那是因为它们实际上没有多大意义。
您最好像 @duffymo 建议的那样,查看第 95 个百分位(表现最差的操作)。但 MySQL 本身并不计算这些类型的分布。 postgreSQL does 。 Oracle Standard Edition and higher也是如此.
如何确定越界指标?这取决于指标以及您想要做什么。如果这是一个积压测量,并且它每分钟都在增长,那么您就有一个需要调查的问题。如果是事务时间,并且远长于平均时间(例如,avg + 3 x stdev
),那么您就有问题了。 open source monitoring system Nagios 已经针对各种指标解决了这个问题。
阅读a book by N. N. Taleb called "The Black Swan"如果您想知道假设现实世界符合正态分布会如何导致全局经济崩溃。
关于mysql - 标准差 (STDDEV) 是否适合该工作?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39231888/