我的一些实验室伙伴一直在研究交叉熵强化学习。从我从他们那里收集到的所有信息以及快速的互联网搜索来看,交叉熵方法似乎与遗传算法几乎相同。有人可以向我解释一下这两种技术之间的真正区别是什么(如果确实存在)吗?
最佳答案
在这种情况下,交叉熵是遗传算法的一种特殊形式。它比“遗传算法”更具体,因为它涵盖了大量不同的算法。
简单地说:
遗传算法是一系列算法/一种优化方法
交叉熵是一种特定的遗传算法。
关于machine-learning - 交叉熵和遗传算法有什么区别?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31208655/