neural-network - NEAT 中的偏置神经元是如何创建的?

标签 neural-network evolutionary-algorithm neat mutation bias-neuron

我正在尝试实现简单的 NEAT。我从各种来源了解到有 4 种类型的“节点”:输入神经元、隐藏神经元、输出神经元和所谓的偏置神经元。我看不到哪个过程可能会产生偏差神经元,这在 this paper 中有所描述。在第 16 页。

我知道在变异时可能会产生新的神经元,但它需要两个神经元之间存在现有连接,这两个神经元将被这个新神经元分开(基于 paper already mentioned,第 10 页)。然而,偏置神经元没有“输入”连接,因此显然不能以上述方式创建。那么,NEAT 是如何详细地创建偏置神经元的?

最佳答案

NEAT 上下文中的偏置神经元(节点)只是一个始终处于事件状态的特殊输入神经元。它总是包含在构造中,因为它在许多情况下似乎有助于进化。

因此,简而言之,您不会像不会创建新的输入或输出节点一样创建偏置神经元;这些由您的问题定义。

您是正确的,因为标准 NEAT 实现通过拆分现有连接引入了新的隐藏节点。隐藏节点是您将在 NEAT 中创建或破坏的唯一神经元(据我所知,在一般的神经进化中)。

关于neural-network - NEAT 中的偏置神经元是如何创建的?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/54814199/

相关文章:

javascript - 为什么这个神经网络不渲染(仅)完整的 3 层路径?

algorithm - 遗传算法和进化算法有什么区别?

python - 尝试在烤宽面条基本示例(稍作修改)上使用自己的数据集来制作用于人脸识别的神经网络

python - 如何在Python、Keras中限制神经网络的输出为正

algorithm - GA : Do I need apply generator operator for that step 中的精英主义

sass - 移除 Neat 2 中的外部排水沟

machine-learning - NEAT(增强拓扑的神经进化)中的前馈算法

css - Bourbon Neat 1 - 让元素跨越阴沟

neural-network - Caffe HDF5 预处理

algorithm - 了解 Small Parsimony,Sankoff 算法