machine-learning - 决策树——节点的熵可以为零吗?

标签 machine-learning data-mining

信息增益的公式为:

Information Gain = entropy(parent) – [average entropy(children)]

熵可以为零吗,这意味着在某些情况下:

entropy(parent) == [average entropy(children)]

最佳答案

“当H(S) = 0时,集合S被完美分类(即S中的所有元素都属于同一类)。” -- https://en.wikipedia.org/wiki/ID3_algorithm

H(S) = 熵;)

关于machine-learning - 决策树——节点的熵可以为零吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35349823/

相关文章:

Python - 地理文本 - 无法识别像 "Rio de Janeiro"这样的城市

machine-learning - 最近邻、朴素贝叶斯和决策树分类器能解决给定的分类问题吗?

python - LightGBM 中的交叉验证

machine-learning - 多类情况的混淆矩阵,所有评估指标的估计

machine-learning - 在 CNN 模型中,我们如何找到我们使用的过滤器的初始化值

java - 用 Java 读取大型 XML 文件的最快方法

matlab - 神经网络训练matlab parfor问题

machine-learning - 处理非小数变量的最佳实践。 [ACM KDD 2009 杯]

machine-learning - 如何根据相似性度量对文档进行聚类?

data-mining - 关联规则挖掘和频繁项集挖掘有什么区别