假设您想在有限数量的句子(编码为:0,1,2,..., S) 系列论文(编码为 0,1,...,P)。
您的机器学习算法返回以下文件:
论文、职位、事件
0,0,22
0,12,38
0,15,18
0,23,3
1,1064,25
1,1232,36
...
并且您想根据类似的真实数据文件计算 F 分数:
纸,真实位置,真实事件
0,0,22
0,12,38
0,15,18
0,23,3
1,1064,25
1,1232,36
...
由于您有很多论文和数百万个文件,计算每篇论文的 F 分数的最快方法是什么?
PS 请注意,没有任何东西可以保证两个文件具有相同数量的位置,ml 算法可能会错误地识别出不在真实情况中的位置。
最佳答案
只要两个文件中的条目对齐以便您可以直接逐行比较,我不明白为什么在 O(n) 时间内处理数百万行会很慢,即使在您的笔记本电脑上也是如此。
关于algorithm - 计算一百万个注释的 F 分数的最快方法是什么?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/33576667/