python - 构建一个只有全连接层(而不是卷积层)的残差网络有意义吗?

标签 python machine-learning neural-network conv-neural-network deep-residual-networks

残差网络总是用卷积层构建。我从未见过只有全连接层的残差网络。构建一个只有全连接层的残差网络有用吗?

最佳答案

是的,您可以在全连接网络中使用残差网络。跳过的连接有助于学习全连接层。
这是一篇很好的论文(不幸的是不是我的),它完成了,作者详细解释了为什么它有助于学习。 https://arxiv.org/pdf/1701.09175.pdf

关于python - 构建一个只有全连接层(而不是卷积层)的残差网络有意义吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/62023882/

相关文章:

python - 使用大图像构建卷积神经网络?

python - 元组索引超出 LSTM 神经网络的范围。 Python、Keras 和 Tensorflow

r - 神经网络预测为所有预测返回相同的值

python - keras flow_from_directory 超过或欠采样一个类

python - 无需执行即可从文件中读取列表和字典

machine-learning - 测试集上的接收器操作特性 (ROC)

python - 简单的 TensorFlow 神经网络最小化成本函数,但所有结果都接近 1

python - 在 Python 中使用 igraph 进行社区检测

python - “pip”对象预期错误 : 800a138f

python - 加载目录中的每个内部文件夹并保存