我对 AlexNet 和 VGG 有很好的理解。我可以根据各自论文中提交的内容来验证每一层中使用的参数数量。
然而,当我尝试在 GoogleNet 论文“Going Deeper With COnvolution”上做同样的事情时,即使经过多次迭代,我也无法验证他们论文“表 1”中的数字。
例如,第一层是内核大小为 (7x7) 的良好旧式普通卷积层,输入图数为 3,输出图数为 64。因此基于这一事实,所需参数的数量为 (3 * 49 * 64) + 64(偏差)约为 9.5k,但他们说他们使用 2.7k。我也为其他层做了数学计算,我总是比他们报告的少几个百分点。有什么想法吗?
谢谢
最佳答案
我认为第一行 (2.7k) 是错误的,但表格的其余行是正确的。
这是我的计算: http://i.stack.imgur.com/4bDo9.jpg
注意检查哪个输入连接到哪个层, 例如对于“inception_3a/5x5_reduce”层:
input = "pool2/3x3_s2" with 192 channels
dims_kernel = C*S*S =192x1x1
num_kernel = 16
因此该层的参数大小 = 16*192*1*1 = 3072
关于convolution - 如何计算 GoogLe Net 的参数数量?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30585122/