应该发生什么:
用户在 UIView 中绘制(例如使用 Apple Pencil)。当他完成后,从该 View 创建一个 UIImage,ARGB 数据被一一读取并最终存储到 NSData 中。
稍后,NSData 再次用于重新创建图像。 (我知道我可以更容易地实现类似的目标,但请假设有一个很好的理由这样做。)
实际发生的情况:
用户绘制到 View 中,UIImage 被获取,但是当代码访问图像数据时,会发生一些连线的事情:数据似乎不适合图像,当它们被用于重建图像时,这一点变得明显。
这是代码。
从 UIView
初始化
- (instancetype)initWithFrame:(CGRect)frame
{
self = [super initWithFrame:frame];
if (self) {
self.layer.allowsEdgeAntialiasing=YES;
self.backgroundColor=[UIColor clearColor];
}
return self;
}
绘图
- (void) touchesBegan:(NSSet *)touches withEvent:(UIEvent *)event {
UITouch *touch = [[event allTouches]anyObject];
CGPoint touchLocation = [touch locationInView:self];
if (myImage!=nil) {
UIImageView * iV = [[UIImageView alloc] initWithFrame:self.bounds];
iV.image = myImage;
[self insertSubview:iV atIndex:0];
}
myPath = [UIBezierPath bezierPath];
[myPath moveToPoint:touchLocation];
}
- (void) touchesMoved:(NSSet<UITouch *> *)touches withEvent:(UIEvent *)event {
UITouch *touch = [[event allTouches]anyObject];
CGPoint touchLocation = [touch locationInView:self];
[myPath addLineToPoint:touchLocation];
[self setNeedsDisplay];
}
-(void)touchesEnded:(NSSet<UITouch *> *)touches withEvent:(UIEvent *)event{
myImage = self.imageRepresentation;
}
- (void) drawRect:(CGRect)rect {
self.context = UIGraphicsGetCurrentContext();
[[UIColor blackColor]setStroke];
myPath.lineWidth=3.0;
[myPath stroke];
}
从 UIView 获取 UIImage
-(UIImage *)imageRepresentation{
UIGraphicsBeginImageContextWithOptions(self.bounds.size, NO, 1.0);
[self.layer renderInContext:UIGraphicsGetCurrentContext()];
myImage= UIGraphicsGetImageFromCurrentImageContext();
UIGraphicsEndImageContext();
return myImage;
}
读取并转换图像数据
-(NSData *) pixel{
int sidelength = (int) self.myImage.size.width;
int numberData = sidelength * sidelength * 4;
CFDataRef pixelData = CGDataProviderCopyData(CGImageGetDataProvider(self.myImage.CGImage));
const UInt8 * data = CFDataGetBytePtr(pixelData);
UInt8 pixel[numberData];
for (int y=0; y<sidelength; y++) {
for (int x=0; x<sidelength; x++) {
int components = sidelength * y + x * 4;
UInt8 a = data[components];
UInt8 r = data[components+1];
UInt8 g = data[components+2];
UInt8 b = data[components+3];
pixel[components]=a;
pixel[components+1]=r;
pixel[components+2]=g;
pixel[components+3]=b;
}
}
CFRelease(pixelData);
return [NSData dataWithBytes:pixel length:sidelength*sidelength*4];;
来自不同类(class)
使用 NSData 检索图片
-(UIImage *) getImage{
UInt8 * pixel=malloc(sizeof(UInt8)*self.numberBytes);
pixel = (UInt8 *) booleanData.bytes;
const int Width = self.size.width;
const int Height = self.size.height;
const int ComponentsPerPixel = 4;
const size_t BitsPerComponent = 8;
const size_t BytesPerRow=((BitsPerComponent * Width) / 8) * ComponentsPerPixel;
CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB();
CGContextRef gtx = CGBitmapContextCreate(&pixel[0], Width, Height, BitsPerComponent, BytesPerRow, colorSpace, kCGImageAlphaPremultipliedFirst | kCGBitmapByteOrder32Host);
CGImageRef toCGImage = CGBitmapContextCreateImage(gtx);
UIImage * image = [[UIImage alloc] initWithCGImage:toCGImage];
return image;
}
这里是结果示例:
使用“imageRepresentation”渲染的原始绘图:
使用“pixel”和“getImage”检索到的图片:
我认为罪魁祸首是“像素”方法,因为我检查了它的结果并发现它们已经非常错误了。此外,我在不同的设置中测试了“getImage”,它工作得很好。但奇怪的是,“像素”也是如此。那么 UIView 是否有可能以不同于 png 或 jpg 的方式呈现?我查看了 UIGraphicsBeginImageContextWithOptions 的文档,但没有给我有用的线索。
最佳答案
有两个问题。第一个是您没有在 pixel
方法中将所有图像数据插入到 pixel
数组中。
如果您的图像是 100x100,那么总字节数是 10000 乘以 4。在您的 for
循环中,您获得的最大像素将是 100x100+100x4,即 10400。剩余的像素包含垃圾。
这个循环将完成这项工作:
for (unsigned long i = 0; i < numberData; i += 4) {
pixel[i] = data[i];
pixel[i + 1] = data[i + 1];
pixel[i + 2] = data[i + 2];
pixel[i + 3] = data[i + 3];
}
第二个问题比较有意思。如果其宽度不是 64 的倍数,则重新创建的图像将被扭曲。CGBitmapContextCreate
中存在某种错误 - 大约六年前我向 Apple 提交了该错误,他们声称已修复它,但是它可以在特定条件下轻松复制。
我运行了您的代码(使用新循环),它在大小为 128x128 的 UIView
上运行良好,但在大小为 100x100 时返回扭曲的图像。
关于ios - 无法正确读取从 UIView 创建的 UIImage 的颜色数据,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55601205/