在这个 pytorch ResNet 代码示例中,他们在第 44 行将下采样定义为变量。第 58 行将其用作函数。作为 CNN 的观点和 Python 代码的观点,这个下采样在这里是如何工作的。
代码示例:pytorch ResNet
我搜索了下采样是否是任何 pytorch 内置函数。但事实并非如此。
class BasicBlock(nn.Module):
expansion = 1
def __init__(self, inplanes, planes, stride=1, downsample=None, groups=1, norm_layer=None):
super(BasicBlock, self).__init__()
if norm_layer is None:
norm_layer = nn.BatchNorm2d
if groups != 1:
raise ValueError('BasicBlock only supports groups=1')
# Both self.conv1 and self.downsample layers downsample the input when stride != 1
self.conv1 = conv3x3(inplanes, planes, stride)
self.bn1 = norm_layer(planes)
self.relu = nn.ReLU(inplace=True)
self.conv2 = conv3x3(planes, planes)
self.bn2 = norm_layer(planes)
self.downsample = downsample
self.stride = stride
def forward(self, x):
identity = x
out = self.conv1(x)
out = self.bn1(out)
out = self.relu(out)
out = self.conv2(out)
out = self.bn2(out)
if self.downsample is not None:
identity = self.downsample(x)
out += identity
out = self.relu(out)
return out
最佳答案
如果您查看原始 ResNet 论文 (http://openaccess.thecvf.com/content_cvpr_2016/papers/He_Deep_Residual_Learning_CVPR_2016_paper.pdf),他们使用跨步卷积对图像进行下采样。使用这些跨步卷积自动对主路径进行下采样,就像在您的代码中所做的那样。残差路径使用 (a) 添加零条目的身份映射以不添加额外参数,或 (b) 具有相同步幅参数的 1x1 卷积。
第二个选项可能如下所示:
if downsample:
self.downsample = conv1x1(inplanes, planes, strides)
关于deep-learning - 在 pytorch 代码中如何在 ResNet 中进行下采样?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55688645/