python - python中离散点(LDDP)的限制密度

标签 python entropy information-theory

信息论中的香农熵衡量离散随机变量经验分布的不确定性或无序性,而微分熵衡量连续 r.v.然而,发现微分熵的经典定义是错误的,并用离散点的极限密度 (LDDP) 进行了纠正。 scipy 或其他计算 LDDP 吗?我如何在 python 中估计 LDDP?

最佳答案

由于 LDDP 等同于从密度函数 m(x) 到概率分布 p(x) 的负 KL 散度,您可以使用 KL 散度的众多实现之一,例如从 scipy.stats.entropy.

一个适当的过程(假设您有有限支持)是通过对其支持进行采样并计算 KL 散度来用离散分布近似连续分布。

如果这不可能,那么我能想到的唯一选择可能是使用数值(或可能是分析?)积分方法,您应该有很多这种方法。一个简单的第一步是尝试蒙特卡洛方法。

关于python - python中离散点(LDDP)的限制密度,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/63254029/

相关文章:

javascript - 将列表理解式 python 转换为 javascript

python - 使用setuptools将文件安装到任意位置

exec 的 Python 变量作用域?

image-processing - 可以应用 Kullback-Leibler 来比较两个图像吗?

python - 运行时警告 : PyOS_InputHook is not available for interactive use of PyGTK

linux - 受熵影响的 ASLR 在 Linux 上可用吗?

c++ - C++ 中的密码强度

machine-learning - SVM(或其他 ML 模型)的预测精度在多大程度上取决于特征编码方式?

algorithm - 是否有一种算法可以寻找 3 个变量之间的数学联系?

不同函数的 'perceived randomness'评分算法