machine-learning - 概率编程与概率机器学习有什么区别?

标签 machine-learning bayesian probabilistic-programming

我试图理解概率编程的概念,但读得越多,我就越感到困惑。

我目前的理解是概率编程类似于贝叶斯网络,只是翻译成编程语言用于创建自动推理模型?

我有一些机器学习背景,我记得一些机器学习模型也输出概率,然后我遇到了概率机器学习这个术语......

两者有区别吗?或者它们有类似的东西吗?

感谢任何可以帮助澄清的人。

最佳答案

我认为这两个术语之间存在一些模糊之处,但我对它们的看法如下:

概率编程它将概率模型表达为生成数据的计算机程序(即模拟器)。

概率模型 + 编程 = 概率编程

没有说明概率模型的构成(它很可能是某种神经网络)。因此,我认为这个术语是:

  1. 更通用
  2. 在应用环境中更常用(与编程相关)

概率机器学习 是机器学习的另一种风格,它处理预测的概率方面,例如该模型不会将输入/输出值视为某些和/或点值,而是将它们(或其中一些)视为 random variables 。这种方法的一个突出例子是 Gaussian Process .

关于machine-learning - 概率编程与概率机器学习有什么区别?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/57300913/

相关文章:

python - sklearn 绘制 SVM 分类器的结果

r - Solr 索引中的聚类文档(具有自定义距离)

c++ - RcppShark 随机森林示例抛出有关随机数生成器的异常

c# - 使用 Accord.Net 的编码对象编码第二个数据集

machine-learning - 什么样的人工智能会在不考虑 future 的情况下做出选择?

algorithm - 使用朴素贝叶斯检测垃圾邮件

math - 贝叶斯曲线拟合模型

r - 在 R 中模拟胖尾数据

pytorch - NumPyro 与 Pyro : Why is former 100x faster and when should I use the latter?

pymc - Pyro VS Pymc?这些概率编程框架之间有什么区别?