algorithm - 测量执行任何功能的预期时间

标签 algorithm performance time machine-learning

通常在机器学习中,训练会消耗大量时间,虽然这是可以衡量的,但只有在训练结束之后。

是否有某种方法可用于估计完成训练(或一般来说,任何函数)可能需要的时间,比如before_call

当然,它取决于机器,更多地取决于输入,但是基于算法将调用的所有 IO 的近似值,基于简单的输入,然后缩放到实际输入的大小。是这样的吗?

PS - JS、Ruby 或任何其他 OO 语言
PPS - 我看到在 Oracle 中有一种方法,described here .太棒了。它是如何完成的?

最佳答案

设 Ci 为第 i 个学习步骤的复杂度。设 Pi 是要学习的东西在第 i 步或之前被学习的概率。设 k 为 Pk > 0.5 的步数。

在这种情况下,复杂度 C 是

C = sum(Pi, i=1,k)

问题是k很难找。在这种情况下,最好存储一组以前学习过的相似模式并计算它们的平均步数,这将是中位数。如果集合足够大,它将非常准确。

Pi = 第i步学到东西的实例数/实例总数

关于algorithm - 测量执行任何功能的预期时间,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42947010/

相关文章:

c++ - 如何在 C++ 中 epur std::string?

algorithm - 同时考虑节点和边的图寻路算法

c - 使用 time(NULL) 在 C 中创建 Delay() 函数时遇到问题

python - 如何检查时间值?

c++ - 返回同时存在于列表 A 和列表 B 中的 x,y 坐标的最快方法是什么?

java - 有效识别请求参数的方法

C vs OpenCL,如何比较时间测量结果?

MySQL - 如何加速 SELECT SUM

time - gnuplot 时间格式变量以空格分隔

java - 如何在保持自然顺序的同时将 Java long 转换为字符串