machine-learning - 泄漏积分和火神经元模型

标签 machine-learning artificial-intelligence neural-network neuroscience biological-neural-network

我最近一直在研究神经网络。它们很棒,但有点晦涩难懂,至少可以说很难接近。我对大量使用集成和火神经元模型的液态机特别感兴趣。但这完全让我无法理解。这里有一些问题:

  1. 泄漏积分和激发神经元的完美神经元配置是什么:https://en.wikipedia.org/wiki/Biological_neuron_model#Leaky_integrate-and-fire ? IE。如果泄漏整合和激发神经元是人造的并且不受生物约束的限制。

  2. 它会适合典型的人工神经元结构还是会保留其泄漏性?

  3. 用简单的英语来说,泄漏集成和火神经元是如何工作的?它如何适应液态机器(如果你碰巧知道有点晦涩,我知道)。

如果您知道这些问题的答案,请随时回复!

谢谢!

最佳答案

你的问题似乎很笼统(因此我认为投了反对票),但我会尝试向你解释什么是“Leaky Integrate-and-Fire”(LIF)神经元。您必须自己关联液态状态机的内容,因为我不是这方面的专家。

LIF 模型的设计如下,用于解释电流如何随电压变化(反之亦然)。这是对真实神经元中发生的事情的过度简化,这意味着我们创建了一个模型,它基本上是一个 RC-circuit ,描述通过神经元发生的电化学相互作用。

LIF 神经元的作用是告诉您,如果您将电流 (I) 输入到神经元中,它将变成电容电流 (Cm*dVm/dt) 和电阻电流 (Vm/Rm)。

我们说“整合”,因为神经元将来自先前神经元的所有传入输入整合在一起。我们使用“泄漏”一词,因为该模型考虑到了这样一个事实:leaks some of the integrating input over time (因为在自​​然界中,您通常会通过逐渐/指数变化达到最终状态)。

Here is another explanation by Gerstner ,可能好多了。

关于machine-learning - 泄漏积分和火神经元模型,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31306957/

相关文章:

algorithm - 解决规划问题

machine-learning - 如何在 Torch 的 GPU 上将张量的元素限制/舍入到小数点后 4 位?

machine-learning - 随机森林是否对每棵树的数据进行随机采样?

python - SageMaker 线性学习器结果不准确?

python - 部分无标签的 Tensorflow 多标签分类

algorithm - 曼哈顿距离如何成为一种可接受的启发式算法?

machine-learning - 优化 word2vec 模型比较

machine-learning - 机器学习中的PCA

machine-learning - 增量(在线)反向传播停止标准

java - 使用模拟退火的非常大的数据集来训练神经网络