crop - 过度裁剪图像会导致深度学习模型性能不佳吗?

标签 crop deep-learning

我目前正在构建一个深度学习模型来识别图像。据我所知,数据增强(例如随机裁剪图像)将减少模型的过度拟合。然而,我不确定过度这样做是否会导致模型变得更糟糕。当然,我可以尝试一种裁剪较多的一种,一种裁剪较少的。但问题是我怎么知道问题是否出在农裁剪的数量上。

从大小为 n x n 的图像中制作所有可能的大小为 m x m 的裁剪是否会带来更好的模型性能?

我相信会的。我的推理是这样的:当我们训练深度学习模型时,我们会查看训练损失和验证损失,并训练模型直到其损失非常低。假设最初我们有一个包含 1000 张图像的训练集,并且模型需要 100 轮训练。现在,我们从原始火车集中裁剪 10 倍额外的图像。现在可以将每个 epoch 视为相当于之前训练数据较少的模型中的 10 个 epoch。然而,与之前模型中的 10 倍重复数据相比,这 10 个时期的每个训练数据都略有不同。当然,这会减少过度拟合。我的推理正确吗?

在这种情况下,假设我们有足够的计算资源,裁剪所有可能的较小尺寸的图像是否有任何缺点?

目前,我正在考虑从 72x72 的图像中裁剪所有可能的 64x64 图像,这为每个原始图像总共提供了 64 个新图像。

我还没有看到任何涉及此问题的论文。如果有人能给我指出一个,我将不胜感激。谢谢。

最佳答案

回答你的问题,没有。它不会损害性能,但是会增加一般过程的几毫秒时间。也许您能得到的最佳答案是尝试不同的方法。

关于crop - 过度裁剪图像会导致深度学习模型性能不佳吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38293441/

相关文章:

tensorflow - 在 Tensorflow 对象检测 API 中绘制验证损失

python - 如何在 Pytorch 中检查模型是否处于训练或评估模式?

tensorflow - 初始化 LSTM 隐藏状态 Tensorflow/Keras

python - scikit-neuralnetwork 中神经网络的反向传播和结构

machine-learning - 如何制作多尺度图像来训练 CNN

qt - 如何以亚像素精度平移/裁剪 QImage?

android - 上传前从相机裁剪图像(Phonegap)

android - 如何裁剪 Android 中已知 URI 的图像?

ios - 在具有可移动边缘点的 SWIFT-IOS 中裁剪图像

image - raphael.js 裁剪图像