这种对卷积神经网络的直观理解是否正确: 1. 卷积基本上匹配图像局部部分与卷积核/滤波器的相似程度 2. 内核/过滤器就像一个特征检测器。重要的是,它是通过 SGD学习并自动更改和优化的
最佳答案
对于“多么相似”的粗略理解,这是正确的。如果您将点积的计算视为衡量相似性,那么答案是肯定的。为什么我个人有疑问?因为它很大程度上取决于向量(或矩阵)的范数。让我们考虑一下图像
1 1 1
2 2 2
1 1 1
和内核
1 1 1
2 2 2
1 1 1
我们将它们进行卷积并得到
1 + 1 + 1 + 2*2 + 2*2 + 2*2 + 1 + 1 + 1 = 18
现在让我们拍照
2 2 2
2 2 2
2 2 2
我们得到
2 + 2 + 2 + 2*2 + 2*2 + 2*2 + 2 + 2 + 2 = 24
我想说第一个图像比另一个图像更相似到内核,但卷积却说明了一些其他的事情。因此,这并不是那么简单,卷积只是图像的基本线性过滤,对信号进行卷积,将点积应用于子样本,但称其为“相似性搜索”有点太多了。然而,它是一个特征检测器,一个非常具体的特征检测器。
关于卷积的关键之处在于,您在描述中忽略了这些检测器的共享性质,事实上,您学习一堆本地镜像过滤器它们应用于图像的每个“点”,从而实现一种位置不变性并大大减少模型的参数化。
关于machine-learning - 卷积神经网络,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39130873/