ios - 再次编辑时 Core Graphics 结果图像不起作用

标签 ios objective-c image uiimage core-graphics

我有两种方法正在使用,但它们的效果并不理想。第一个是 Perlin 噪声发生器,它导出随机云的黑白 UIImage,并且运行良好。第二种方法采用 UIImage 并过滤掉高于或低于给定亮度的所有像素,在不需要的像素所在的位置返回具有透明度的图像,并且它与我一直使用的黑白测试图像完美配合。

但是当我尝试将图像从第一种方法输入到第二种方法时,它不起作用。无论输入值如何,每个像素都被删除,我得到一个空白的 UIImage。 (需要明确的是,这是一个非零的 UIImage,除了透明像素外什么都没有,就好像每个像素都被计为超出所需的亮度范围,而不管该像素的实际亮度如何。)

下面是两种方法。我从教程和 SO 答案中改编了每一个,但虽然我对 Core Graphics 不是 100% 满意,但它们对我来说似乎相当简单:第一个遍历每个像素并使用 Perlin 公式中的 RGB 值为其着色,第二个创建基于输入值的掩码。 (注意:两者都是 UIImage 上的类别方法,因此后一种方法中的“self”引用指的是源图像。)

+ (UIImage *)perlinMapOfSize:(CGSize)size {
    CZGPerlinGenerator *generator = [[CZGPerlinGenerator alloc] init];
    generator.octaves = 10;
    generator.persistence = 0.5;
    generator.zoom = 150;

    CGContextRef ctx = [self contextSetup:size];

    CGContextSetRGBFillColor(ctx, 0.000, 0.000, 0.000, 1.000);
    CGContextFillRect(ctx, CGRectMake(0.0, 0.0, size.width, size.height));
    for (CGFloat x = 0.0; x<size.width; x+=1.0) {
        for (CGFloat y=0.0; y<size.height; y+=1.0) {
            double value = [generator perlinNoiseX:x y:y z:0 t:0];
            CGContextSetRGBFillColor(ctx, value, value, value, 1.0);
            CGContextFillRect(ctx, CGRectMake(x, y, 1.0, 1.0));
        }
    }

    return [self finishImageContext];
}

-(UIImage*)imageWithLumaMaskFromDark:(CGFloat)lumaFloor toLight:(CGFloat)lumaCeil {
    // inputs range from 0 - 255
    CGImageRef rawImageRef = self.CGImage;

    const CGFloat colorMasking[6] = {lumaFloor, lumaCeil, lumaFloor, lumaCeil, lumaFloor, lumaCeil};

    UIGraphicsBeginImageContext(self.size);
    CGImageRef maskedImageRef = CGImageCreateWithMaskingColors(rawImageRef, colorMasking);
    {
        //if in iphone
        CGContextTranslateCTM(UIGraphicsGetCurrentContext(), 0.0, self.size.height);
        CGContextScaleCTM(UIGraphicsGetCurrentContext(), 1.0, -1.0);
    }

    CGContextDrawImage(UIGraphicsGetCurrentContext(), CGRectMake(0, 0, self.size.width, self.size.height), maskedImageRef);
    UIImage *result = UIGraphicsGetImageFromCurrentImageContext();
    CGImageRelease(maskedImageRef);
    UIGraphicsEndImageContext();
    return result;
}

有谁知道为什么前一种方法的图像与后者不兼容?前一种方法成功返回云图像,后一种方法处理我从计算机或互联网输入的每张图像,而不是前一种方法的图像。

我假设第二种方法中的 CGImageCreateWithMaskingColors() 调用正在寻找第一种方法没有放入图像中的一些信息,或者其他我不知道的东西系统足够好,可以找出问题所在。

任何人都可以解释一下吗?

编辑:根据要求,这里是上面提到的另外两种方法。我知道,在类别中使用类似这样的类方法是一种奇怪的设置,但这是我在教程中找到代码的方式并且它有效,所以我从来没有费心去改变它。

+ (CGContextRef) contextSetup: (CGSize) size {
    UIGraphicsBeginImageContext(size);
    CGContextRef context = UIGraphicsGetCurrentContext();
    UIGraphicsPushContext(context);
    //NSLog(@"Begin drawing");
    return context;
}

+ (UIImage *) finishImageContext {
    //NSLog(@"End drawing");
    UIGraphicsPopContext();
    UIImage *outputImage = UIGraphicsGetImageFromCurrentImageContext();
    UIGraphicsEndImageContext();
    return outputImage;
}

编辑 2: 根据一些研究,CGImageCreateWithMaskingColors() 函数不适用于包含 alpha 分量的图像,我重新安排了第一种方法,如下所示.我的直觉告诉我这就是问题所在,但我有点摸不着头脑。这是我尝试使用 kCGImageAlphaNone 创建图像的尝试,但现在最后的 UIGraphicsGetImageFromCurrentImageContext() 返回 nil。

+ (UIImage *)perlinMapOfSize:(CGSize)size {
    CZGPerlinGenerator *generator = [[CZGPerlinGenerator alloc] init];
    generator.octaves = 10;
    generator.persistence = 0.5;
    generator.zoom = 150;

    CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB();
    CGContextRef ctx = CGBitmapContextCreate(NULL, size.width, size.height, 8, size.width * 4, colorSpace, kCGImageAlphaNoneSkipLast);
    UIGraphicsPushContext(ctx);

    CGContextSetRGBFillColor(ctx, 0.000, 0.000, 0.000, 1.0);
    CGContextFillRect(ctx, CGRectMake(0.0, 0.0, size.width, size.height));
    for (int x = 0; x<size.width; x++) {
        for (int y=0; y<size.height; y++) {
            double value = [generator perlinNoiseX:x y:y z:0 t:0];
            CGContextSetRGBFillColor(ctx, value, value, value, 1.0);
            CGContextFillRect(ctx, CGRectMake(x, y, 1.0, 1.0));
        }
    }

    UIImage *outputImage = UIGraphicsGetImageFromCurrentImageContext();
    NSLog(@"Output: %@", outputImage);
    UIGraphicsEndImageContext();
    CGContextRelease(ctx);
    return outputImage;
}

最佳答案

正如您所发现的,CGImageCreateWithMaskingColors 需要没有 alpha channel 的图像。但是,您尝试的修复不起作用 @matt points out因为您正在尝试将图像上下文函数调用(例如 UIGraphicsGetImageFromCurrentImageContext)与位图上下文混合和匹配。

因此,最简单的解决方法是继续使用图像上下文,但将其设置为不透明。您可以通过调用 UIGraphicsBeginImageContextWithOptions 并将 YES 提供给 opaque 参数来执行此操作,这将输出没有 alpha channel 的图像。

尽管如此,在这里使用位图上下文将是更合适的解决方案,因为它允许您直接操作像素数据,而不是进行大量的 CGContextFillRect 调用。

像这样应该可以达到预期的效果:

+(UIImage *)perlinMapOfSize:(CGSize)size {

    // your generator setup
    CZGPerlinGenerator *generator = [[CZGPerlinGenerator alloc] init];
    generator.octaves = 10;
    generator.persistence = 0.5;
    generator.zoom = 150;

    // bitmap info
    size_t width = size.width;
    size_t height = size.height;
    size_t bytesPerPixel = 4;
    size_t bitsPerComponent = 8;
    size_t bytesPerRow = width * bytesPerPixel;
    CGBitmapInfo bitmapInfo = kCGImageAlphaNoneSkipLast | kCGBitmapByteOrder32Big;

    // allocate memory for the bitmap
    UInt8* imgData = calloc(bytesPerRow, height);

    // create RGB color space
    CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB();

    // create an RGBA bitmap context where the alpha component is ignored
    CGContextRef ctx = CGBitmapContextCreate(imgData, width, height, bitsPerComponent, bytesPerRow, colorSpace, bitmapInfo);

    // iterate over pixels
    for (int x = 0; x < width; x++) {
        for (int y = 0; y < height; y++) {

            // the current pixel index
            size_t byte = x * bytesPerPixel + y * bytesPerRow;

            // get noise data for given x & y
            int value = round([generator perlinNoiseX:x y:y z:0 t:0]*255.0);

            // limit values (not too sure of the range of values that the method outputs – this may not be needed)
            if (value > 255) value = 255;
            else if (value < 0) value = 0;

            // write values to pixel components
            imgData[byte] = value; // R
            imgData[byte+1] = value; // G
            imgData[byte+2] = value; // B
        }
    }

    // get image
    CGImageRef imgRef = CGBitmapContextCreateImage(ctx);
    UIImage* img = [UIImage imageWithCGImage:imgRef];

    // clean up
    CGContextRelease(ctx);
    CGColorSpaceRelease(colorSpace);
    CGImageRelease(imgRef);
    free(imgData);

    return img;
}

其他一些注意事项

UIGraphicsBeginImageContext(WithOptions) 自动使图像上下文成为当前上下文——因此您不需要使用它执行 UIGraphicsPushContext/UIGraphicsPopContext .

UIGraphicsBeginImageContext 使用 1.0 的比例 – 这意味着您使用的是像素大小,而不是点数。因此,您输出的图像可能不适合 2x 或 3x 显示器。您通常应该使用 UIGraphicsBeginImageContextWithOptions 代替,如果您只是操作,则使用 0.0(主屏幕比例)或 image.scale 的比例给定的图像(适用于您的 imageWithLumaMaskFromDark 方法)。

CGBitmapContextCreate 还将创建一个比例为 1.0 的上下文。如果您想将图像缩放到与屏幕相同的比例,您只需将输入的宽度和高度乘以屏幕比例即可:

CGFloat scale = [UIScreen mainScreen].scale;

size_t width = size.width*scale;
size_t height = size.height*scale;

然后在创建输出 UIImage 时提供比例:

UIImage* img = [UIImage imageWithCGImage:imgRef scale:scale orientation:UIImageOrientationUp];

如果您想在位图上下文中执行一些 CGContext 绘图调用,您还需要在绘图之前对其进行缩放,以便您可以在点坐标系中工作:

CGContextScaleCTM(ctx, scale, scale);

关于ios - 再次编辑时 Core Graphics 结果图像不起作用,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37646076/

相关文章:

android - 如何查询 Android MediaStore Content Provider,避免孤立图像?

android - 如何在 Android/AndEngine 中变形两个图像

iphone - 如何检测哪个 3rd sdk 使用 UDID?

ios - 选择 UITableView 行时使用特定信息填充 UITextView

ios - swift 3 : How to set up UINavigationBar setBackgroundImage in AppDelegate

ios - 如何在 Windows 上激活 ios.windows xamarin

ios - 从关系中获取请求 CoreData

objective-c - iOS Objective-C : how can I get useful information out of object description?

html - 在 Firefox 中调整大小时图像被截断

c++ - cocos2d 中的 setScale 特定时间 Xcode