我正在开发一个项目,该项目在 Android 平台上捕获图像后识别对象。为此,我提取了样本图像的特征,例如紧凑度、矩形度、伸长率、偏心率、圆度、球形度、叶形和 hu 矩。之后,使用随机树作为分类器。由于我使用从 Google 收集的分辨率不高的图片来创建分类器,因此在裁剪图像时,捕获的尺寸为 1280x720 的图像会给出 19/20 的正确结果。
但是,当我拍摄大约 5 兆像素的大尺寸图像并裁剪它们进行识别时,获得正确结果的数量急剧减少。
拍摄高分辨率图片时,是否需要提取高分辨率图像的特征并进行训练才能得到准确的结果?有没有办法调整提取的与图像分辨率相关的特征?
最佳答案
一些特征描述符对缩放很敏感。其他的,例如SIFT和 SURF , 不是。如果您预计图像的分辨率(或比例)会发生变化,最好使用比例不变的特征描述符。
如果您使用非尺度不变的特征描述符,您仍然可以通过标准化图像的分辨率来获得不错的结果。尝试将 5 兆像素图像缩放至 1280x720 - 分类结果是否有所改善?
关于image-processing - 图像质量/分辨率对特征提取的影响,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/16702437/