machine-learning - 卷积神经网络会受到梯度消失的影响吗?

标签 machine-learning neural-network classification conv-neural-network

我想我在某处读到,卷积神经网络不会像层数不断增加的标准 sigmoid 神经网络那样遭受梯度消失问题。但我一直无法找到“为什么”。

它真的没有遇到这个问题吗?还是我错了,它取决于激活函数? [我一直在使用修正线性单元,所以我从未测试过卷积神经网络的 Sigmoid 单元]

最佳答案

卷积神经网络(如标准 sigmoid 神经网络)确实存在梯度消失问题。克服梯度消失问题最推荐的方法是:

  • 分层预训练
  • 激活函数的选择

您可能会看到,用于计算机视觉问题的最先进的深度神经网络(如 ImageNet 获胜者)已使用卷积层作为其网络的前几层,但这不是关键用于解决梯度消失问题。关键通常是逐层贪婪地训练网络。当然,使用卷积层还有其他几个重要的好处。特别是在输入尺寸较大(图像的像素)时的视觉问题中,建议在第一层使用卷积层,因为它们的参数比全连接层少,并且最终不会有数十亿个参数第一层(这将使您的网络容易过度拟合)。

然而,对于一些任务来说(如 this paper ),使用修正线性单元可以缓解梯度消失的问题(与传统的 sigmoid 函数相反)。

关于machine-learning - 卷积神经网络会受到梯度消失的影响吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/28953622/

相关文章:

machine-learning - 是否可以从数据集中获得两种不同类型的结果

python - 我在哪里调用 Keras 中的 BatchNormalization 函数?

matlab - 在 MATLAB 中创建简单神经网络时的困惑

python - 如何使用 shuffle_batch() 函数避免超出范围错误?

machine-learning - 决策树桩

machine-learning - 如何使用 FastText 查找相似的句子(词汇外的句子)

python - 概率 SVM、回归

r - 从多个混淆矩阵中提取指标并填充数据框

machine-learning - 通过搜索词预测产品类别

python - sklearn VotingClassifier fit 使用什么方法?