machine-learning - 卷积神经网络

标签 machine-learning computer-vision neural-network conv-neural-network

这种对卷积神经网络的直观理解是否正确: 1. 卷积基本上匹配图像局部部分与卷积核/滤波器的相似程度 2. 内核/过滤器就像一个特征检测器。重要的是,它是通过 SGD学习并自动更改和优化的

最佳答案

对于“多么相似”的粗略理解,这是正确的。如果您将点积的计算视为衡量相似性,那么答案是肯定的。为什么我个人有疑问?因为它很大程度上取决于向量(或矩阵)的范数。让我们考虑一下图像

1 1 1
2 2 2
1 1 1

和内核

1 1 1
2 2 2
1 1 1

我们将它们进行卷积并得到

1 + 1 + 1 + 2*2 + 2*2 + 2*2 + 1 + 1 + 1 = 18

现在让我们拍照

2 2 2
2 2 2
2 2 2

我们得到

2 + 2 + 2 + 2*2 + 2*2 + 2*2 + 2 + 2 + 2 = 24

我想说第一个图像比另一个图像更相似到内核,但卷积却说明了一些其他的事情。因此,这并不是那么简单,卷积只是图像的基本线性过滤,对信号进行卷积,将点积应用于子样本,但称其为“相似性搜索”有点太多了。然而,它是一个特征检测器,一个非常具体的特征检测器。

关于卷积的关键之处在于,您在描述中忽略了这些检测器的共享性质,事实上,您学习一堆本地镜像过滤器它们应用于图像的每个“点”,从而实现一种位置不变性并大大减少模型的参数化。

关于machine-learning - 卷积神经网络,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39130873/

相关文章:

python - 对于神经网络,学习率是否应该以某种方式与隐藏层大小成正比?他们应该互相影响吗?

java - 使用 Weka 对作者博客性别进行分类

machine-learning - caffe net 从 hdf5 层获取下一批

python - 如何找到速率TP,TN,FP,FN并测量分段算法的质量?

python - 消除opencv中阈值TEXT图像的噪音

azure - 使用本地镜像进行 Read 3.0、Azure 认知服务、计算机视觉

java - 如何估计 Encog 使用 Levenberg-Marquardt 算法训练具有特定样本集的特定网络所需的 RAM 量?

python - 进行反向传播和梯度下降时,numpy 数组和矩阵出现问题

machine-learning - Dropout 应该插入到哪里?全连接层。?卷积层。?或两者。?

python - 为什么在 python 中获取 sklearn 中的顶级预测结果不同?