algorithm - 计算一百万个注释的 F 分数的最快方法是什么?

标签 algorithm machine-learning

假设您想在有限数量的句子(编码为:0,1,2,..., S) 系列论文(编码为 0,1,...,P)。

您的机器学习算法返回以下文件:

论文、职位、事件 0,0,22 0,12,38 0,15,18 0,23,3 1,1064,25 1,1232,36 ...

并且您想根据类似的真实数据文件计算 F 分数:

纸,真实位置,真实事件 0,0,22 0,12,38 0,15,18 0,23,3 1,1064,25 1,1232,36 ...

由于您有很多论文和数百万个文件,计算每篇论文的 F 分数的最快方法是什么?

PS 请注意,没有任何东西可以保证两个文件具有相同数量的位置,ml 算法可能会错误地识别出不在真实情况中的位置。

最佳答案

只要两个文件中的条目对齐以便您可以直接逐行比较,我不明白为什么在 O(n) 时间内处理数百万行会很慢,即使在您的笔记本电脑上也是如此。

关于algorithm - 计算一百万个注释的 F 分数的最快方法是什么?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/33576667/

相关文章:

algorithm - 最短路径 - 广度优先搜索

tensorflow - 如何用 3 个 Keras 生成器生成 1 个小批量

r - 结合二元分类算法

machine-learning - 逻辑回归曲线不以我的数据为中心

javascript - 将条件方程从中缀转换为前缀表示法

database - 根据距离和受欢迎程度对地点进行排名

algorithm - 目前最好的垃圾邮件过滤算法

algorithm - 贪心最佳优先搜索时间复杂度

python - 使用 LabelEncorder 我试图将数据集从字符串更改为数字

tensorflow - 使用 Tensorflow 的 CNN 模型