1
  1. 我从一张imageView.image(照片)开始。
  2. 我提交(POST)imageView.image到远程服务(微软人脸检测)进行处理。
  3. 远程服务CGRect为图像上检测到的每个人脸返回 JSON 格式。
  4. 我将 JSON 输入我的 UIView 以绘制矩形。我用{0, 0, imageView.image.size.width, imageView.image.size.height}. <--我的想法,一个框架的大小相当于imageView.image
  5. 将我的 UIView 添加为self.imageViewOR的子视图self.view(都尝试过)

最终结果: 绘制了矩形,但它们在imageView.image. 也就是说,为每个人脸生成的 CGRect 应该是相对于图像的坐标空间,由远程服务返回,但是一旦我添加了我的自定义视图,它们就会消失。

我相信我可能会遇到某种缩放问题,因为如果我将 CGRects / 2 中的每个值相除(作为测试),我可以获得一个近似值但仍然关闭。微软文档声明检测到的人脸返回矩形,表示图像中人脸的位置(以像素为单位) 。然而,在绘制我的路径时,它们不是被视为点吗?

另外,我不应该使用与 ' 框架等效的框架来启动我的视图,imageView.image以便视图与提交的图像匹配相同的坐标空间吗?

这是一个屏幕截图示例,如果我尝试通过将每个 CGRect 除以 2 来按比例缩小它们的样子。

在此处输入图像描述

我是 iOS 新手,从书本中脱离出来,将其作为一种自我练习。我可以根据需要提供更多代码。提前感谢您的洞察力!

编辑 1

我为每个矩形添加一个子视图,因为我通过以下方法遍历包含每个面的矩形的面部属性数组,该方法在(void)viewDidAppear:(BOOL)animated

- (void)buildFaceRects {

    // build an array of CGRect dicts off of JSON returned from analized image
    NSMutableArray *array = [self analizeImage:self.imageView.image];

    // enumerate over array using block - each obj in array represents one face
   [array enumerateObjectsUsingBlock:^(id obj, NSUInteger idx, BOOL *stop) {

       // build dictionary of rects and attributes for the face
       NSDictionary *json = [NSDictionary dictionaryWithObjectsAndKeys:obj[@"attributes"], @"attributes", obj[@"faceId"], @"faceId", obj[@"faceRectangle"], @"faceRectangle", nil];

       // initiate face model object with dictionary
       ZGCFace *face = [[ZGCFace alloc] initWithJSON:json];

       NSLog(@"%@", face.faceId);
       NSLog(@"%d", face.age);
       NSLog(@"%@", face.gender);
       NSLog(@"%f", face.faceRect.origin.x);
       NSLog(@"%f", face.faceRect.origin.y);
       NSLog(@"%f", face.faceRect.size.height);
       NSLog(@"%f", face.faceRect.size.width);

       // define frame for subview containing face rectangle
       CGRect imageRect = CGRectMake(0, 0, self.imageView.image.size.width, self.imageView.image.size.height);

       // initiate rectange subview with face info
       ZGCFaceRectView *faceRect = [[ZGCFaceRectView alloc] initWithFace:face frame:imageRect];

       // add view as subview of imageview (?)
       [self.imageView addSubview:faceRect];

   }];

}

编辑2:

    /* Image info */
    UIImageView *iv = self.imageView;
    UIImage *img = iv.image;
    CGImageRef CGimg = img.CGImage;

    // Bitmap dimensions [pixels]
    NSUInteger imgWidth = CGImageGetWidth(CGimg);
    NSUInteger imgHeight = CGImageGetHeight(CGimg);
    NSLog(@"Image dimensions: %lux%lu", imgWidth, imgHeight);

    // Image size pixels (size * scale)
    CGSize imgSizeInPixels = CGSizeMake(img.size.width * img.scale, img.size.height * img.scale);
    NSLog(@"image size in Pixels: %fx%f", imgSizeInPixels.width, imgSizeInPixels.height);

    // Image size points
    CGSize imgSizeInPoints = img.size;
    NSLog(@"image size in Points: %fx%f", imgSizeInPoints.width, imgSizeInPoints.height);



       // Calculate Image frame (within imgview) with a contentMode of UIViewContentModeScaleAspectFit
       CGFloat imgScale = fminf(CGRectGetWidth(iv.bounds)/imgSizeInPoints.width, CGRectGetHeight(iv.bounds)/imgSizeInPoints.height);
       CGSize scaledImgSize = CGSizeMake(imgSizeInPoints.width * imgScale, imgSizeInPoints.height * imgScale);
       CGRect imgFrame = CGRectMake(roundf(0.5f*(CGRectGetWidth(iv.bounds)-scaledImgSize.width)), roundf(0.5f*(CGRectGetHeight(iv.bounds)-scaledImgSize.height)), roundf(scaledImgSize.width), roundf(scaledImgSize.height));


       // initiate rectange subview with face info
       ZGCFaceRectView *faceRect = [[ZGCFaceRectView alloc] initWithFace:face frame:imgFrame];

       // add view as subview of image view
       [iv addSubview:faceRect];

   }];
4

1 回答 1

2

我们有几个问题:

  1. 微软返回像素,iOS 使用积分。它们之间的区别仅在于屏幕尺寸。例如在 iPhone 5 上:1 pt = 2 px 和 3GS 1px = 1 pt。查看 iOS 文档以获取更多信息。

  2. 您的 UIImageView 的框架不是图像框架。微软返回人脸框架时,是在图片的框架中返回,而不是在 UIImageView 的框架中返回。所以我们遇到了坐标系统的问题。

  3. 如果您使用自动布局,请注意时间。由约束设置的视图框架在调用 ViewDidLoad: 时与在屏幕上看到时不同。

解决方案 :

我只是一个只读的 Objective C 开发人员,所以我不能给你代码。我可以在 Swift 中使用,但这不是必需的。

  1. 将像素转换为点。这很简单:使用率。

  2. 使用您所做的定义面部框架。然后你必须将你确定的坐标从图像帧坐标系移动到 UIImageView 坐标系。这不太容易。这取决于你的 UIImageView 的 contentMode。但我很快在互联网上找到了有关它的信息。

  3. 如果您使用 AutoLayout,请在 AutoLayout 完成计算布局时添加面部框架。所以当 ViewDidLayoutSubview: 被调用时。或者,更好的是,使用约束在 UIImageView 中设置框架。

我希望足够清楚。

一些链接:

  1. iOS 绘图概念

  2. 在 UIImageView 中显示的图像帧

于 2015-07-06T16:29:17.347 回答