python - 创建全卷积网络

标签 python tensorflow conv-neural-network

我正在阅读这篇研究论文fully convolutional network for semantic segmentation以下是本文的引用

The fully connected layers of these nets have fixed dimensions and throw away spatial coordinates. However, these fully connected layers can also be viewed as convolutions with kernels that cover their entire input regions.

我不明白粗体部分,但是经过对互联网的一些研究,我得出的结论是,如果我删除最后一层(即全连接层),然后对最后一层(即删除全连接层之前的倒数第二层)进行卷积)对于三个 1x1 内核,我将执行与粗体部分所述相同的操作。 我的说法正确吗?

为什么使用三个 1x1 内核?

因为在论文中,他们正在从原始输入创建 rgb 热图,rgb 意味着三个 channel ,但是卷积网络(没有完全连接层)的结果具有许多 channel (高维),因此与三个 1x1 内核进行卷积以制作它是 rbg 图像。 Image from paper

最佳答案

假设倒数第二层有一个 200X200 矩阵。 然后,如果您要使用全连接层,您将把 200X200 矩阵转换为单个一维数组。 这意味着一个大小为 40000 的数组。这就是丢弃空间坐标的含义。如果您应用 1x1 内核,也会发生同样的情况。您将得到类似的结果,像素值没有变化。

关于python - 创建全卷积网络,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/52196940/

相关文章:

tensorflow - keras 在第一个纪元停止工作

python - 在 Keras 中跨 channel 卷积 CNN : Conv1D, Depthwise Separable Conv,CCCP?

python - Django 变量与预期不匹配

python - 我该如何将StringVar()放入StringVar()中?

python - 找不到命令 'toco'

python - GPT-2 从检查点继续训练

computer-vision - AlexNet的参数个数如何计算?

python - Tensorflow 2.0 不计算梯度

python - pd.read_html(url) - 尴尬的表格设计

Python在点击时获取鼠标x,y位置