machine-learning - 为什么 CNN 中的滤波器数量通常是偶数?

标签 machine-learning neural-network convolution

在卷积神经网络架构中选择滤波器数量时,滤波器的数量为偶数。例如,以下是 AlexNet 中卷积层中的滤波器数量:

conv1 - 96, 
conv2 - 256, 
conv3 - 384, 
conv4 - 384, 
conv5 - 256.

过滤器编号为偶数背后有什么理由吗?

最佳答案

按照惯例,它们通常是 2 的幂。

按照惯例,内核大小始终是奇数。(以保持每个大小的填充相同)

内核大小通常为 1 或 3。

当内核大小为1时,称为NiN(网络中的网络)。

关于machine-learning - 为什么 CNN 中的滤波器数量通常是偶数?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48161891/

相关文章:

c++ - OpenCV filter2D : Is there any use of kernels not anchored at center?

matlab - 使用 SVM 算法在 matlab 中进行拇指识别

numpy - 处理具有数字属性的标称值的策略

machine-learning - 当我们在 theano 中使用交叉熵时,如何修复 NAN 或 INF?

neural-network - 注意的LSTM

Matlab:神经网络时间序列预测?

matlab - 卷积后 MatLab 中 -1 的移位

validation - 如何将多类分类后得到的结果映射到1和0

machine-learning - tensorflow 模型动物园?

neural-network - 对象检测和对象分类有什么区别?