machine-learning - gamma和epsilon在K-L散度计算中的作用是什么?

标签 machine-learning

我想知道是否有人可以向我解释为什么 gamma 和 epsilon 可以用来计算两个文档之间的 K-L 散度?他们的角色是什么?我不太擅长数学,所以如果有人能用简单的术语向我解释,那将会非常有帮助。

感谢您的帮助!

最佳答案

我想您指的是论文 Using Kullback-Leibler Distance for Text Categorization 中定义的 gamma 和 epsilon 值.

epsilon 是术语不在文档中的概率。将其设置为一个较小的值而不是 0,以避免距离无限大。 gamma 是考虑 epsilon 的归一化系数,因此类别中某个术语的概率满足概率的属性(总和为 1)。

关于machine-learning - gamma和epsilon在K-L散度计算中的作用是什么?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/58895873/

相关文章:

azure - 如何在 Microsoft Azure 中使用 SMOTE

python - 我如何让支持向量回归来绘制多项式图

python - Facebook 先知 : Providing different data sets to build a better model

machine-learning - 我如何解释这个 Inceptionv3 模型图

python - 如何在SVM情感分析中使用predict_proba

python - 在 PyTorch 中本地测量多类分类的 F1 分数

python - 机器学习,计算成本函数误差,得到大小为0的矩阵作为结果

python - 如何使用 scikit-learn 将多项式曲线拟合到数据?

java - OpenNLP NameFinder 自定义特征生成

python - 使用高斯混合模型和 scikit learn 进行多类分类