machine-learning - 深度神经网络应该增加、减少或保持隐藏节点不变

标签 machine-learning neural-network deep-learning conv-neural-network

隐藏层中的隐藏节点数通常应该增加、减少还是保持不变。我发现在 alexnet、VGG 和 resnet 等一些卷积网络中,后续层的节点数量往往会增加。这是为什么?它真的很重要吗?

最佳答案

没有一般规则,它完全取决于如何构建神经网络的问题。几乎任何方案——递减、递增、小瓶颈、宽“脖子”——都有其自己的应用。为了真正理解正在发生的事情,您需要大量的经验,但一般来说,调整架构非常棘手,并且通常通过一些“经验法则”来完成,例如“我们使用 XXX 使用的架构,然后尝试对其进行一些调整” ”。

关于machine-learning - 深度神经网络应该增加、减少或保持隐藏节点不变,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37094587/

相关文章:

machine-learning - 如果我在构建图形时涉及 for 循环,那么 tensorflow 中的 autodiff 是否有效?

python - 用于多项逻辑回归的 Keras model.predict

Tensorflow:尝试恢复 pb 文件中的模型时出错

machine-learning - 前馈神经网络反向传播算法假设

neural-network - 用单层感知器解决异或

machine-learning - 卷积神经网络与下采样?

python - 在python中将概率向量转换为目标向量?

matlab - 使用训练图像的可变大小的 pig 描述符训练 SVM (MATLAB)

python - 训练神经网络的问题

image-processing - 可以在重新训练 Inception 模型的图像中进行对象检测(一类)吗?