我对 2 个 2d 卷积如何相互连接有疑问。我理解卷积概念,x 个滤波器会产生 x 个特征图,但是当你有 16 个特征图并且应用 8 个滤波器的卷积时会发生什么? 8 个滤波器中的每一个是否都与 16 个特征图中的每一个进行卷积?然后他们添加 8 个过滤器中每个过滤器产生的 16 个结果特征图?或者涉及什么过程?谢谢。下面你可以看到我想知道的图表。
x1 和 x2 的尺寸:
x1:(?,128,256,16)
x2:(?,128,256,8)
从x1到x2的过程是什么?
最佳答案
您的误解是您正在考虑[h, w]
过滤器内核。
但事实上,这些是 8 倍[h, w,channels_in]
过滤器。
对于 8 个输出 channel 中的每一个,都有一个大小为 [h, w, 16] 的滤波器。因此,整个内存消耗是[h,w, channel 输入, channel 输出](正如 documentation 中所述)。可视化它的一个好方法是考虑 8 次拥有 16 个独立的 [h, w]
过滤器内核,这 16 个输出被求和。
关于python - 关于多个 tf.layer.conv2d 如何相互连接,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51406104/