我试图理解概率编程的概念,但读得越多,我就越感到困惑。
我目前的理解是概率编程类似于贝叶斯网络,只是翻译成编程语言用于创建自动推理模型?
我有一些机器学习背景,我记得一些机器学习模型也输出概率,然后我遇到了概率机器学习这个术语......
两者有区别吗?或者它们有类似的东西吗?
感谢任何可以帮助澄清的人。
最佳答案
我认为这两个术语之间存在一些模糊之处,但我对它们的看法如下:
概率编程它将概率模型表达为生成数据的计算机程序(即模拟器)。
概率模型 + 编程 = 概率编程
没有说明概率模型的构成(它很可能是某种神经网络)。因此,我认为这个术语是:
- 更通用
- 在应用环境中更常用(与编程相关)
概率机器学习 是机器学习的另一种风格,它处理预测的概率方面,例如该模型不会将输入/输出值视为某些和/或点值,而是将它们(或其中一些)视为 random variables 。这种方法的一个突出例子是 Gaussian Process .
关于machine-learning - 概率编程与概率机器学习有什么区别?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/57300913/