machine-learning - 如何证明EM的收敛性?

标签 machine-learning statistics nlp expectation-maximization

你能解释一下如何证明期望最大化算法的收敛性吗?

例如硬币问题的 EM:https://math.stackexchange.com/questions/25111/how-does-expectation-maximization-work

最佳答案

EM 算法进行最大似然估计。如果您查看对数似然,就会发现 E 和 M 步骤并不总是使其最大化。然而,如果你看一下负自由能函数,它们总是最大化它,尽管相对于不同的事物(有点像坐标下降)。所以是的,EM 算法总是收敛的,即使它可能收敛到不良的局部极值,这是一个不同的问题。
看看经典论文www.cs.toronto.edu/~radford/ftp/emk.pdf自己去了解更多。

关于machine-learning - 如何证明EM的收敛性?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/12580168/

相关文章:

machine-learning - 卷积网络的训练方法还叫深度学习吗?

python - python 与 R 中的 glm

nlp - 自然语言处理模型

python - 使用beam_search(huggingface库)生成文本时出现不匹配的张量大小错误

nlp - 将自然语言转换为俳句?

python - 梯度下降 - 我可以绘制要最小化的函数吗?线性回归

tensorflow - 从损失函数记录标量

python - 自定义 scikit 编码器抛出转换错误

r - 两个相关系数差异的显着性检验

numpy - 加速矩阵求逆