模型已经过训练,它可以可靠地识别出小图片中的狗和猫,如下所示:
所有这些图片几乎总是以猫/狗为中心,而猫/狗几乎占据了整个图像框架。几乎没有任何额外的周围环境,这使得网络能够非常有效地训练。
下一步是,如何确保同一个模型能够有效地告诉我们,下图中恰好有一只猫,与训练模型时使用的猫类似,但周围的环境更广阔?
当模型应该在生产中使用且图像显示比训练更广泛的上下文时,是否需要采取一些具体步骤?或者模型能够自动检测到它吗?
最佳答案
它的有效性按递减顺序排列,您可以采取的步骤是:
使用更多训练数据,图像具有更大的边框。
可以通过随机或镜像填充来增强现有的训练图像的边框。
尝试在推理过程中裁剪掉边框,创建多个具有不同边框的图像。选择结果最好的运行。
关于python - 使用经过训练的神经网络来显示更广泛的周围环境的图像,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/60167258/