machine-learning - 前馈神经网络的图灵完备性?

标签 machine-learning neural-network deep-learning computation-theory

我读到 RNN 是图灵完备的,但前馈神经网络 (FFN) 不是。但是基于万能逼近定理,FFN可以在给定足够多的节点的情况下模拟任意函数,而且我们也知道lambda Church演算(基于无状态函数)相当于图灵机,为什么FFN不能通过模拟任意函数来实现图灵完备在教堂微积分中?

谢谢!

最佳答案

我认为你在这里做出了错误的假设,因此存在明显的悖论。 万能逼近定理指出,具有包含有限数量神经元的单个隐藏层的前馈网络可以逼近连续函数 紧凑子集 (wiki)。图灵机定理涵盖了更广泛的函数,包括离散函数。

据我所知,没有证据表明 FFN 是或不是图灵完备的(很高兴在这里得到纠正)。但存在 proof RNN 是图灵完备的(正如你所说)。

关于machine-learning - 前馈神经网络的图灵完备性?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/46696576/

相关文章:

python - “NoneType”对象没有属性 'raise_exception_on_not_ok_status'

python - Tensorflow DeepLab : Shape mismatch in tuple component 1. 预期 [x,x,3],得到 [y,y,3]

python - RandomForestRegressor 特征是否作为类别处理?

tensorflow - 如果学习曲线显示验证误差低于训练误差,预测是否可信?

python - 使用 sklearn 进行音乐流派分类 : how to accurately evaluate different models

python - 用纯python计算NN的梯度

matlab - 神经网络中的竞争性学习

python - PyBrain 多个目标值

python - 使用 Pytorch 数据加载器加载特定示例的简单方法

tensorflow - GPU 中的 Bfloat16 训练