[ios2] 关于CGBitmapContextCreate【转】

时间:2023-12-31 13:36:32
CGContextRef CGBitmapContextCreate (
  void *data,
  size_t width,
  size_t height,
  size_t bitsPerComponent,
  size_t bytesPerRow,
  CGColorSpaceRef colorspace,
  CGBitmapInfo bitmapInfo
  );
 参数data指向绘图操作被渲染的内存区域,这个内存区域大小应该为(bytesPerRow*height)个字节。如果对绘制操作被渲染的内存区域并无特别的要求,那么可以传递NULL给参数date。
   参数width代表被渲染内存区域的宽度。
   参数height代表被渲染内存区域的高度。
   参数bitsPerComponent被渲染内存区域中组件在屏幕每个像素点上需要使用的bits位,举例来说,如果使用32-bit像素和RGB颜色格式,那么RGBA颜色格式中每个组件在屏幕每个像素点上需要使用的bits位就为32/4=8。
   参数bytesPerRow代表被渲染内存区域中每行所使用的bytes位数。
   参数colorspace用于被渲染内存区域的“位图上下文”。
   参数bitmapInfo指定被渲染内存区域的“视图”是否包含一个alpha(透视)通道以及每个像素相应的位置,除此之外还可以指定组件式是浮点值还是整数值。
获取图片中单个点的颜色:
- (UIColor*) getPixelColorAtLocation:(CGPoint)point {

UIColor* color = nil;

CGImageRef inImage = self.image.CGImage;

// Create off screen
bitmap context to draw the image into. Format ARGB is 4 bytes for
each pixel: Alpa, Red, Green, Blue
 
 CGContextRef cgctx = [self createARGBBitmapContextFromImage:inImage];

if (cgctx == NULL) { return nil;  }

size_t w = CGImageGetWidth(inImage);

size_t h = CGImageGetHeight(inImage);

CGRect rect = {{,},{w,h}};

// Draw the image to
the bitmap context. Once we draw, the
memory 
   // allocated for the
context for rendering will then contain
the 
   // raw image data in
the specified color space.
 
 CGContextDrawImage(cgctx, rect, inImage);

// Now we can get a
pointer to the image data associated with the bitmap
   //
context.
   unsigned char* data = CGBitmapContextGetData (cgctx);

if (data != NULL) {

//offset locates the
pixel in the data from x,y. 
     
 //4 for 4 bytes of
data per pixel, w is width of one row of data.
     
 @try {

int offset = *((w*round(point.y))+round(point.x));

NSLog(@"offset:
%d", offset);
     
   
 int alpha =  data[offset];

int red = data[offset+];

int green = data[offset+];

int blue = data[offset+];

NSLog(@"offset: %i colors: RGB A %i %i %i
 %i",offset,red,green,blue,alpha);
     
   
 color = [UIColor colorWithRed:(red/255.0f) green:(green/255.0f) blue:(blue/255.0f) alpha:(alpha/255.0f)];

}
     
 @catch (NSException * e) {

NSLog(@"%@",[e reason]);

}
     
 @finally {

}

}
   // When finished,
release the context
 
 CGContextRelease(cgctx); 
   // Free image data
memory for the context
   if (data) { free(data); }

return color;

}

创建取点图片工作域:
- (CGContextRef) createARGBBitmapContextFromImage:(CGImageRef) inImage {

CGContextRef  
 context = NULL;

CGColorSpaceRef colorSpace;

void *  
     
 bitmapData;
   int  
     
 
  bitmapByteCount;
   int  
     
 
  bitmapBytesPerRow;

// Get image width,
height. We'll use the entire image.
 
 size_t pixelsWide = CGImageGetWidth(inImage);

size_t pixelsHigh = CGImageGetHeight(inImage);

// Declare the number
of bytes per row. Each pixel in the bitmap in this
   // example is
represented by 4 bytes; 8 bits each of red, green, blue,
and
   // alpha.
 
 bitmapBytesPerRow   = (pixelsWide * );

bitmapByteCount  
  = (bitmapBytesPerRow * pixelsHigh);

// Use the generic RGB
color space.
 
 colorSpace = CGColorSpaceCreateDeviceRGB();

if (colorSpace == NULL)

{
     
 fprintf(stderr, "Error allocating color
space\n");
     
 return NULL;

}

// Allocate memory for
image data. This is the destination in memory
   // where any drawing
to the bitmap context will be rendered.
 
 bitmapData = malloc( bitmapByteCount );

if (bitmapData == NULL)

{
     
 fprintf (stderr, "Memory
not allocated!");
     
 CGColorSpaceRelease( colorSpace );

return NULL;

}

// Create the bitmap
context. We want pre-multiplied ARGB,
8-bits 
   // per component.
Regardless of what the source image format
is 
   // (CMYK, Grayscale,
and so on) it will be converted over to the format
   // specified here by
CGBitmapContextCreate.
 
 context = CGBitmapContextCreate (bitmapData,

pixelsWide,
     
     
     
     
     
     
     
     
     
     
     
  pixelsHigh,
     
     
     
     
     
     
     
     
     
     
     
  ,  
   // bits per
component
     
     
     
     
     
     
     
     
     
     
     
  bitmapBytesPerRow,
     
     
     
     
     
     
     
     
     
     
     
  colorSpace,
     
     
     
     
     
     
     
     
     
     
     
  kCGImageAlphaPremultipliedFirst);

if (context == NULL)

{
     
 free (bitmapData);
     
 fprintf (stderr, "Context
not created!");
   }
   // Make sure and
release colorspace before returning
 
 CGColorSpaceRelease( colorSpace );

return context;

}

- (UIColor *) colorOfPoint:(CGPoint)point
{
unsigned char pixel[4] = {0};
CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB();
CGContextRef context = CGBitmapContextCreate(pixel, 1, 1, 8, 4, colorSpace, kCGImageAlphaPremultipliedLast); CGContextTranslateCTM(context, -point.x, -point.y); [self.layer renderInContext:context]; CGContextRelease(context);
CGColorSpaceRelease(colorSpace); //NSLog(@"pixel: %d %d %d %d", pixel[0], pixel[1], pixel[2], pixel[3]); UIColor *color = [UIColor colorWithRed:pixel[0]/255.0 green:pixel[1]/255.0 blue:pixel[2]/255.0 alpha:pixel[3]/255.0]; return color;
} //图片压缩

iOS自带的提供了一个API如下

  1. NSData *UIImageJPEGRepresentation(UIImage *image, CGFloat compressionQuality);

在Iphone上有两种读取图片数据的简单方法: UIImageJPEGRepresentation和UIImagePNGRepresentation. UIImageJPEGRepresentation函数需要两个参数:图片的引用和压缩系数.而UIImagePNGRepresentation只需 要图片引用作为参数.通过在实际使用过程中,比较发现: UIImagePNGRepresentation(UIImage* image) 要比UIImageJPEGRepresentation(UIImage* image, 1.0) 返回的图片数据量大很多.譬如,同样是读取摄像头拍摄的同样景色的照片, UIImagePNGRepresentation()返回的数据量大小为199K ,而 UIImageJPEGRepresentation(UIImage* image, 1.0)返回的数据量大小只为140KB,比前者少了50多KB.如果对图片的清晰度要求不高,还可以通过设置 UIImageJPEGRepresentation函数的第二个参数,大幅度降低图片数据量.譬如,刚才拍摄的图片, 通过调用UIImageJPEGRepresentation(UIImage* image, 1.0)读取数据时,返回的数据大小为140KB,但更改压缩系数后,通过调用UIImageJPEGRepresentation(UIImage* image, 0.5)读取数据时,返回的数据大小只有11KB多,大大压缩了图片的数据量 ,而且从视角角度看,图片的质量并没有明显的降低.因此,在读取图片数据内容时,建议优先使用UIImageJPEGRepresentation,并可 根据自己的实际使用场景,设置压缩系数,进一步降低图片数据量大小。

  1. UIImage *imageNew = [info objectForKey:@"UIImagePickerControllerOriginalImage"];
  2. imageNew = [self imageWithImage:imageNew scaledToSize:CGSizeMake(100, 100)];
  3. NSData *imageData = UIImageJPEGRepresentation(imageNew, 0.0001);
  4. m_selectImage = [UIImage imageWithData:imageData];

.h具体code

  1. #import <Foundation/Foundation.h>
  2. @interface UIImage (UIImageExt)
  3. - (UIImage *)scaleToSize:(UIImage *)img size:(CGSize)size;
  4. - (UIImage *)imageByScalingAndCroppingForSize:(CGSize)targetSize;
  5. @end
.m具体code
    1. #import "UIImageExt.h"
    2. @implementation UIImage (UIImageExt)
    3. - (UIImage *)scaleToSize:(UIImage *)img size:(CGSize)size{
    4. // 创建一个bitmap的context
    5. // 并把它设置成为当前正在使用的context
    6. UIGraphicsBeginImageContext(size);
    7. // 绘制改变大小的图片
    8. [img drawInRect:CGRectMake(0, 0, size.width, size.height)];
    9. // 从当前context中创建一个改变大小后的图片
    10. UIImage* scaledImage = UIGraphicsGetImageFromCurrentImageContext();
    11. // 使当前的context出堆栈
    12. UIGraphicsEndImageContext();
    13. // 返回新的改变大小后的图片
    14. return scaledImage;
    15. }
    16. - (UIImage*)imageByScalingAndCroppingForSize:(CGSize)targetSize
    17. {
    18. UIImage *sourceImage = self;
    19. UIImage *newImage = nil;
    20. CGSize imageSize = sourceImage.size;
    21. CGFloat width = imageSize.width;
    22. CGFloat height = imageSize.height;
    23. CGFloat targetWidth = targetSize.width;
    24. CGFloat targetHeight = targetSize.height;
    25. CGFloat scaleFactor = 0.0;
    26. CGFloat scaledWidth = targetWidth;
    27. CGFloat scaledHeight = targetHeight;
    28. CGPoint thumbnailPoint = CGPointMake(0.0,0.0);
    29. if (CGSizeEqualToSize(imageSize, targetSize) == NO)
    30. {
    31. CGFloat widthFactor = targetWidth / width;
    32. CGFloat heightFactor = targetHeight / height;
    33. if (widthFactor > heightFactor)
    34. scaleFactor = widthFactor; // scale to fit height
    35. else
    36. scaleFactor = heightFactor; // scale to fit width
    37. scaledWidth  = width * scaleFactor;
    38. scaledHeight = height * scaleFactor;
    39. // center the image
    40. if (widthFactor > heightFactor)
    41. {
    42. thumbnailPoint.y = (targetHeight - scaledHeight) * 0.5;
    43. }
    44. else
    45. if (widthFactor < heightFactor)
    46. {
    47. thumbnailPoint.x = (targetWidth - scaledWidth) * 0.5;
    48. }
    49. }
    50. UIGraphicsBeginImageContext(targetSize); // this will crop
    51. CGRect thumbnailRect = CGRectZero;
    52. thumbnailRect.origin = thumbnailPoint;
    53. thumbnailRect.size.width  = scaledWidth;
    54. thumbnailRect.size.height = scaledHeight;
    55. [sourceImage drawInRect:thumbnailRect];
    56. newImage = UIGraphicsGetImageFromCurrentImageContext();
    57. if(newImage == nil)
    58. NSLog(@"could not scale image");
    59. //pop the context to get back to the default
    60. UIGraphicsEndImageContext();
    61. return newImage;
    62. }
    63. @end