信息增益的公式为:
Information Gain = entropy(parent) – [average entropy(children)]
熵可以为零吗,这意味着在某些情况下:
entropy(parent) == [average entropy(children)]
最佳答案
“当H(S) = 0
时,集合S被完美分类(即S中的所有元素都属于同一类)。” -- https://en.wikipedia.org/wiki/ID3_algorithm
H(S)
= 熵;)
关于machine-learning - 决策树——节点的熵可以为零吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35349823/