我在 caffe 中有一个完全卷积网络(特别是堆叠沙漏网络)。在每个卷积层之后,我有一个批量归一化和一个缩放层以及一个 ReLU 层。但是,我遇到了过度拟合的问题。通常,我会增加我的数据集(这是不可能的)或者我会使用 Dropout 层,但是由于我已经读到在完全卷积网络中使用 Dropout 层没有用,我不知道如何解决这个问题。除了我所说的,还有什么可以做的吗?在这种情况下,正则化可能有帮助吗?
最佳答案
这是我从网上偷来的一张方便的图片。当您的深度学习模型遇到问题时,这是一个方便的尝试图表。你说你听说过Dropout在Conv上不好,但是你测试过吗?从那开始,然后继续:
更新 2020/10/22 - 经过几年的卷积编码并尝试了为什么我的嵌入层似乎具有不合理的高协方差问题的原因后,我将其追踪到了 dropout。 Dropout 鼓励协方差(顺便说一句,这不好)。我没有使用 dropout,而是使用其他正则化器,或者完全跳过正则化并专注于初始化和架构。这是我制作的(糟糕的)视频,展示了如何有效地训练超深 400 layers of convolution以及用于帮助其进行培训和操作的技巧
关于deep-learning - 如何在caffe中使用完全卷积网络解决过度拟合,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43865103/