使用 FFT 互相关进行 C++ 模式匹配(图像)

标签 c++ pattern-matching image-recognition fftw cross-correlation

每个人我都在尝试使用 FFT 实现模式匹配,但我不确定结果应该是什么(我想我错过了一些东西,即使阅读了很多关于这个问题的内容并尝试了很多不同的实现,这个是最好的迄今为止)。这是我的 FFT 相关函数。

void fft2d(fftw_complex**& a, int rows, int cols, bool forward = true)
{
    fftw_plan p;
    for (int i = 0; i < rows; ++i)
    {
        p = fftw_plan_dft_1d(cols, a[i], a[i], forward ? FFTW_FORWARD : FFTW_BACKWARD, FFTW_ESTIMATE);
        fftw_execute(p);
    }

    fftw_complex* t = (fftw_complex*)fftw_malloc(rows * sizeof(fftw_complex));

    for (int j = 0; j < cols; ++j)
    {
        for (int i = 0; i < rows; ++i)
        {
            t[i][0] = a[i][j][0];
            t[i][1] = a[i][j][1];
        }

        p = fftw_plan_dft_1d(rows, t, t, forward ? FFTW_FORWARD : FFTW_BACKWARD, FFTW_ESTIMATE);
        fftw_execute(p);

        for (int i = 0; i < rows; ++i)
        {
            a[i][j][0] = t[i][0];
            a[i][j][1] = t[i][1];
        }
    }

    fftw_free(t);
}

int findCorrelation(int argc, char* argv[])
{
    BMP bigImage;
    BMP keyImage;
    BMP result;
    RGBApixel blackPixel = { 0, 0, 0, 1 };
    const bool swapQuadrants = (argc == 4);

    if (argc < 3 || argc > 4) {
        cout << "correlation img1.bmp img2.bmp" << endl;
        return 1;
    }

    if (!keyImage.ReadFromFile(argv[1])) {
        return 1;
    }

    if (!bigImage.ReadFromFile(argv[2])) {
        return 1;
}
    //Preparations
    const int maxWidth = std::max(bigImage.TellWidth(), keyImage.TellWidth());
    const int maxHeight = std::max(bigImage.TellHeight(), keyImage.TellHeight());

    const int rowsCount = maxHeight;
    const int colsCount = maxWidth;

    BMP bigTemp = bigImage;
    BMP keyTemp = keyImage;

    keyImage.SetSize(maxWidth, maxHeight);
    bigImage.SetSize(maxWidth, maxHeight);

    for (int i = 0; i < rowsCount; ++i)
        for (int j = 0; j < colsCount; ++j) {
            RGBApixel p1;

            if (i < bigTemp.TellHeight() && j < bigTemp.TellWidth()) {
                p1 = bigTemp.GetPixel(j, i);
            } else {
                p1 = blackPixel;
            }

            bigImage.SetPixel(j, i, p1);

            RGBApixel p2;

            if (i < keyTemp.TellHeight() && j < keyTemp.TellWidth()) {
                p2 = keyTemp.GetPixel(j, i);
            } else {
                p2 = blackPixel;
            }

            keyImage.SetPixel(j, i, p2);
        }
    //Here is where the transforms begin
    fftw_complex **a = (fftw_complex**)fftw_malloc(rowsCount * sizeof(fftw_complex*));
    fftw_complex **b = (fftw_complex**)fftw_malloc(rowsCount * sizeof(fftw_complex*));
    fftw_complex **c = (fftw_complex**)fftw_malloc(rowsCount * sizeof(fftw_complex*));

    for (int i = 0; i < rowsCount; ++i) {

        a[i] = (fftw_complex*)fftw_malloc(colsCount * sizeof(fftw_complex));
        b[i] = (fftw_complex*)fftw_malloc(colsCount * sizeof(fftw_complex));
        c[i] = (fftw_complex*)fftw_malloc(colsCount * sizeof(fftw_complex));

        for (int j = 0; j < colsCount; ++j) {
            RGBApixel p1;

            p1 = bigImage.GetPixel(j, i);

            a[i][j][0] = (0.299*p1.Red + 0.587*p1.Green + 0.114*p1.Blue);
            a[i][j][1] = 0.0;

            RGBApixel p2;

            p2 = keyImage.GetPixel(j, i);

            b[i][j][0] = (0.299*p2.Red + 0.587*p2.Green + 0.114*p2.Blue);
            b[i][j][1] = 0.0;
        }
    }

    fft2d(a, rowsCount, colsCount);
    fft2d(b, rowsCount, colsCount);

    result.SetSize(maxWidth, maxHeight);

    for (int i = 0; i < rowsCount; ++i)
        for (int j = 0; j < colsCount; ++j) {
            fftw_complex& y = a[i][j];
            fftw_complex& x = b[i][j];

            double u = x[0], v = x[1];
            double m = y[0], n = y[1];

            c[i][j][0] = u*m + n*v;
            c[i][j][1] = v*m - u*n;

            int fx = j;
            if (fx>(colsCount / 2)) fx -= colsCount;

            int fy = i;
            if (fy>(rowsCount / 2)) fy -= rowsCount;

            float r2 = (fx*fx + fy*fy);

            const double cuttoffCoef = (maxWidth * maxHeight) / 37992.;
            if (r2<128 * 128 * cuttoffCoef)
                c[i][j][0] = c[i][j][1] = 0;
        }

    fft2d(c, rowsCount, colsCount, false);

    const int halfCols = colsCount / 2;
    const int halfRows = rowsCount / 2;

    if (swapQuadrants) {
        for (int i = 0; i < halfRows; ++i)
            for (int j = 0; j < halfCols; ++j) {
                std::swap(c[i][j][0], c[i + halfRows][j + halfCols][0]);
                std::swap(c[i][j][1], c[i + halfRows][j + halfCols][1]);
            }

        for (int i = halfRows; i < rowsCount; ++i)
            for (int j = 0; j < halfCols; ++j) {
                std::swap(c[i][j][0], c[i - halfRows][j + halfCols][0]);
                std::swap(c[i][j][1], c[i - halfRows][j + halfCols][1]);
            }
    }

    for (int i = 0; i < rowsCount; ++i)
        for (int j = 0; j < colsCount; ++j) {
            const double& g = c[i][j][0];
            RGBApixel pixel;

            pixel.Alpha = 0;
            int gInt = 255 - static_cast<int>(std::floor(g + 0.5));
            pixel.Red = gInt;
            pixel.Green = gInt;
            pixel.Blue = gInt;

            result.SetPixel(j, i, pixel);
        }


    BMP res;
    res.SetSize(maxWidth, maxHeight);

    result.WriteToFile("result.bmp");

    return 0;
}

样本输出 Result from calling the function

最佳答案

这个问题可能更适合发布在另一个网站上,如 cross validated。 (metaoptimize.com 曾经也是一个不错的网站,但它似乎已经消失了)

那说:

您可以使用 FFT 执行两种类似的操作:卷积和相关。卷积用于确定两个信号如何相互作用,而相关性可用于表示两个信号彼此之间的相似程度。确保您进行了正确的操作,因为它们通常都是通过 DFT 实现的。

对于这种类型的 DFT 应用,您通常不会在傅立叶频谱中提取任何有用的信息,除非您正在寻找两个数据源或其他任何共同的频率(例如,如果您正在比较两个桥以查看它们的支撑是否间隔相似) )。

您的第三张图片看起来很像电源域;通常我看到相关输出完全是灰色的,除非发生重叠。您的代码显然是在计算逆 DFT,所以除非我遗漏了什么,否则我对模糊外观提出的唯一其他解释可能是其中的一些“软糖因子”代码,例如:

if (r2<128 * 128 * cuttoffCoef)
  c[i][j][0] = c[i][j][1] = 0;

至于你应该期待什么:只要两个图像之间有共同的元素,你就会看到一个峰值。峰值越大,两个图像在该区域附近越相似。

一些评论和/或建议的更改:

1)卷积和相关不是尺度不变的操作。换句话说,图案图像的大小会对输出产生重大影响。

2)在相关之前标准化您的图像。

当您为前向 DFT channel 准备好图像数据时:
a[i][j][0] = (0.299*p1.Red + 0.587*p1.Green + 0.114*p1.Blue);
a[i][j][1] = 0.0;
/* ... */

你如何对图像进行灰度化是你的事(尽管我会选择 sqrt( r*r + b*b + g*g ) 之类的东西)。但是,我没有看到你做任何事情来规范化图像。

在这种情况下,“规范化”一词可以具有几种不同的含义。两种常见类型:
  • 标准化 0.0 和 1.0 之间的值范围
  • 标准化图像的“白度”

  • 3)通过边缘增强过滤器运行您的图案图像。我个人使用过canny , sobel ,我想我和其他几个人搞砸了。我记得,canny 是“quick'n dirty”,sobel 更贵,但在进行相关时我得到了可比较的结果。见 chapter 24在线免费提供的“dsp 指南”一书。整本书值得你花时间,但如果你时间不够,那么至少第 24 章会有很大帮助。

    4) 在 [0, 255] 之间重新缩放输出图像;如果要实现阈值,请在此步骤之后执行,因为阈值步骤是有损的。

    我对这个的内存很模糊,但我记得(为清楚起见进行了编辑):
  • 您可以通过从整个功率谱
  • 中划分出最大功率谱值来在 [-1.0, 1.0] 之间缩放最终图像像素(重新缩放之前)
  • 最大功率谱值是功率谱中最中心的值(对应于最低频率)
  • 如果你把它从功率谱中分离出来,你最终会做两倍的工作;由于 FFT 是线性的,因此您可以将除法延迟到逆 DFT 传递到您重新缩放 [0..255] 之间的像素时。
  • 如果在重新调整大多数值后,您无法看到它们,您可以使用 ODE y' = y(1 - y) 的解决方案。 (一个例子是 sigmoid f(x) = 1 / (1 + exp(-c*x) ) ,对于一些缩放因子 c 可以提供更好的渐变)。这与提高您直观地解释结果的能力有关,而不是您可能用于以编程方式查找峰值的任何方法。

  • 编辑我在上面说 [0, 255]。我建议您重新调整到 [128, 255] 或其他一些灰色而不是黑色的下限。

    关于使用 FFT 互相关进行 C++ 模式匹配(图像),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31149187/

    相关文章:

    c++ - 无法在abs函数c++中使用字符串长度函数

    c++ - 在 C++ 中声明队列

    c - OpenMP - 计算模式匹配中的比较

    java - Pig脚本/命令来过滤多个字符串上的文件

    f# - 是否可以使用 F# 模式匹配作为另一种语言或 DSL 的求解器/库?

    python - 如何使用 openCV-python 识别白色背景上的多张照片?

    c# - 使用结构的 C++ 字符串到 C#

    c++ - 在 OpenCV 中捕获和显示视频

    python - AdaBoost 和维奥拉·琼斯 : What training set to use?

    image-processing - OpenCV - 用于不同角度的长物体的 Haar 分类器