隐藏层中的隐藏节点数通常应该增加、减少还是保持不变。我发现在 alexnet、VGG 和 resnet 等一些卷积网络中,后续层的节点数量往往会增加。这是为什么?它真的很重要吗?
最佳答案
没有一般规则,它完全取决于如何构建神经网络的问题。几乎任何方案——递减、递增、小瓶颈、宽“脖子”——都有其自己的应用。为了真正理解正在发生的事情,您需要大量的经验,但一般来说,调整架构非常棘手,并且通常通过一些“经验法则”来完成,例如“我们使用 XXX 使用的架构,然后尝试对其进行一些调整” ”。
关于machine-learning - 深度神经网络应该增加、减少或保持隐藏节点不变,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37094587/