我试图将两个图像添加到上下文中,但它不起作用并抛出
GBitmapContextCreateImage: invalid context 0x0
错误。我使用以下代码:
//some image
CGImageRef image = ...
//some image as well, but masked. Works perfectly.
CGImageRef blurredAndMasked = CGImageCreateWithMask(blurred, mask);
//Both images are fine. Sure.
//Initializing the context and color space
CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB();
CGContextRef ctx = CGBitmapContextCreate(nil, frameSize.width, frameSize.height, 8, 0, colorSpace, kCGBitmapAlphaInfoMask);
//Drawing images into the context
CGContextDrawImage(ctx, CGRectMake(0, 0, frameSize.width, frameSize.height), image);
CGContextDrawImage(ctx, CGRectMake(0, 0, frameSize.width, frameSize.height), blurredAndMasked);
//getting the resulting image
CGImageRef ret = CGBitmapContextCreateImage(ctx);
//releasing the stuff
CGImageRelease(image);
CGImageRelease(blurred);
CGImageRelease(blurredAndMasked);
CGColorSpaceRelease(colorSpace);
CGContextRelease(ctx);
这看起来不错,但生成的图像全是黑色或看起来与此非常相似:
代码中应该更改什么?提前致谢!
最佳答案
kCGBitmapAlphaInfoMask
不是 CGBitmapContextCreate
的最后一个 (bitmapInfo
) 参数的有效值。它是一个掩码(因此得名),您可以使用 &
运算符从 CGBitmapInfo
值中获取 CGImageAlphaInfo
。您永远不会在需要 CGBitmapInfo
或 CGImageAlphaInfo
的地方传递 kCGBitmapAlphaInfoMask
。
假设您不需要特定的字节顺序,我相信这是 iOS 上具有 alpha channel 的最高性能像素格式:
CGContextRef ctx = CGBitmapContextCreate(nil,
frameSize.width, frameSize.height, 8, 0, colorSpace,
kCGBitmapByteOrder32Little | kCGImageAlphaPremultipliedFirst);
这应该是没有 alpha channel 的最高性能:
CGContextRef ctx = CGBitmapContextCreate(nil,
frameSize.width, frameSize.height, 8, 0, colorSpace,
kCGBitmapByteOrder32Little | kCGImageAlphaNoneSkipFirst);
关于ios - 如何从CGContextRef获取CGImageRef?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31436468/