ios - 从 OpenCV 距离变换得到奇怪的结果

标签 ios opencv image-processing uiimage opencv3.1

我正在尝试使用 openCV 实现类似的东西

https://mathematica.stackexchange.com/questions/19546/image-processing-floor-plan-detecting-rooms-borders-area-and-room-names-t

但是,我遇到了一些障碍(可能是由于我自己对使用 OpenCV 的无知)。

当我尝试对我的图像执行距离变换时,我根本没有得到预期的结果。

这是我正在处理的原始图像

enter image description here

这是我用 opencv 做一些清理后得到的图像

enter image description here

这是我在尝试对上图运行距离变换后得到的奇怪结果。我的理解是,这应该看起来更像是一个模糊的热图。如果我按照 opencv 示例通过这一点并尝试运行一个阈值来找到距离峰值,我只会得到一个黑色图像。 enter image description here

到目前为止,这是我使用几个不同的 opencv 示例拼凑而成的代码

    cv::Mat outerBox = cv::Mat(matImage.size(), CV_8UC1);
cv::Mat kernel = (cv::Mat_<uchar>(3,3) << 0,1,0,1,1,1,0,1,0);

for(int x = 0; x < 3; x++) {
    cv::GaussianBlur(matImage, matImage, cv::Size(11,11), 0);
    cv::adaptiveThreshold(matImage, outerBox, 255, cv::ADAPTIVE_THRESH_MEAN_C, cv::THRESH_BINARY, 5, 2);
    cv::bitwise_not(outerBox, outerBox);

    cv::dilate(outerBox, outerBox, kernel);
    cv::dilate(outerBox, outerBox, kernel);

    removeBlobs(outerBox, 1);

    erode(outerBox, outerBox, kernel);
}

cv::Mat dist;
cv::bitwise_not(outerBox, outerBox);
distanceTransform(outerBox, dist, cv::DIST_L2, 5);
// Normalize the distance image for range = {0.0, 1.0}
// so we can visualize and threshold it
normalize(dist, dist, 0, 1., cv::NORM_MINMAX);


    //using a threshold at this point like the opencv example shows to find peaks just returns a black image right now
//threshold(dist, dist, .4, 1., CV_THRESH_BINARY);
//cv::Mat kernel1 = cv::Mat::ones(3, 3, CV_8UC1);
//dilate(dist, dist, kernel1);


self.mainImage.image = [UIImage fromCVMat:outerBox];

void removeBlobs(cv::Mat &outerBox, int iterations) {
int count=0;
int max=-1;

cv::Point maxPt;

for(int iteration = 0; iteration < iterations; iteration++) {

    for(int y=0;y<outerBox.size().height;y++)
    {
        uchar *row = outerBox.ptr(y);
        for(int x=0;x<outerBox.size().width;x++)
        {
            if(row[x]>=128)
            {

                int area = floodFill(outerBox, cv::Point(x,y), CV_RGB(0,0,64));

                if(area>max)
                {
                    maxPt = cv::Point(x,y);
                    max = area;
                }
            }
        }

    }

    floodFill(outerBox, maxPt, CV_RGB(255,255,255));
    for(int y=0;y<outerBox.size().height;y++)
    {
        uchar *row = outerBox.ptr(y);
        for(int x=0;x<outerBox.size().width;x++)
        {
            if(row[x]==64 && x!=maxPt.x && y!=maxPt.y)
            {
                int area = floodFill(outerBox, cv::Point(x,y), CV_RGB(0,0,0));
            }
        }
    }
}
}

几个小时以来,我一直在努力解决这个问题,但我完全陷入困境,所以非常感谢任何帮助。这有点超出我的理解范围,我觉得我可能只是在不知不觉中犯了一些基本错误。

编辑: 使用与上面相同的代码运行 OpenCV for Mac(不是 iOS)我得到了预期的结果 enter image description here

这似乎表明问题出在 OpenCV 建议使用的 Mat -> UIImage 桥接上。我将继续使用 Mac 库来测试我的代码,但如果能够从 UIImage 桥接中获得一致的结果肯定会很好。

    + (UIImage*)fromCVMat:(const cv::Mat&)cvMat
{
    // (1) Construct the correct color space
    CGColorSpaceRef colorSpace;
    if ( cvMat.channels() == 1 ) {
        colorSpace = CGColorSpaceCreateDeviceGray();
    } else {
        colorSpace = CGColorSpaceCreateDeviceRGB();
    }

    // (2) Create image data reference
    CFDataRef data = CFDataCreate(kCFAllocatorDefault, cvMat.data, (cvMat.elemSize() * cvMat.total()));

    // (3) Create CGImage from cv::Mat container
    CGDataProviderRef provider = CGDataProviderCreateWithCFData(data);
    CGImageRef imageRef = CGImageCreate(cvMat.cols,
                                        cvMat.rows,
                                        8,
                                        8 * cvMat.elemSize(),
                                        cvMat.step[0],
                                        colorSpace,
                                        kCGImageAlphaNone | kCGBitmapByteOrderDefault,
                                        provider,
                                        NULL,
                                        false,
                                        kCGRenderingIntentDefault);

    // (4) Create UIImage from CGImage
    UIImage * finalImage = [UIImage imageWithCGImage:imageRef];

    // (5) Release the references
    CGImageRelease(imageRef);
    CGDataProviderRelease(provider);
    CFRelease(data);
    CGColorSpaceRelease(colorSpace);

    // (6) Return the UIImage instance
    return finalImage;
}

最佳答案

我使用 python 在 OpenCV 中计算出距离变换,并且得到了这个:

enter image description here

您说“我只得到一张黑色图像”。好吧,我最初遇到了同样的问题,直到我使用: np.uint8(dist_transform)

将图像转换为 int 类型

我还做了一些额外的事情(你可能/可能不需要它)。为了在一定程度上对房间进行分割,我对距离变换后的图像进行了阈值处理。结果我得到了这个:

enter image description here

关于ios - 从 OpenCV 距离变换得到奇怪的结果,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42502084/

相关文章:

ios - 是否有用于访问通话记录的 iOS API?

ios - TextView 在 ScrollView 中的位置不正确

c++ - 与方法的参数混淆?

c++ - 数据检索和索引

OpenCV findContour() 角索引顺序

ios - UIWebView 问题 - 错误 101

objective-c - 关闭 Viewcontroller 并执行 segue

java - 如何在小图像上使用 Opencv FeatureDetecter

image-processing - 在特征提取中实现卷积神经网络

algorithm - 图像中数字的识别(Matlab)