retinanet_target_assign

paddle.fluid.layers.retinanet_target_assign(bbox_pred, cls_logits, anchor_box, anchor_var, gt_boxes, gt_labels, is_crowd, im_info, num_classes=1, positive_overlap=0.5, negative_overlap=0.4)[源代码]

该OP是从输入anchor中找出训练检测模型 RetinaNet 所需的正负样本,并为每个正负样本分配用于分类的目标值和位置回归的目标值,同时从全部anchor的类别预测值cls_logits、位置预测值bbox_pred中取出属于各正负样本的部分。

正负样本的查找准则如下:

  • 若anchor与某个真值框之间的Intersection-over-Union(IoU)大于其他anchor与该真值框的IoU,则该anchor是正样本,且被分配给该真值框;
  • 若anchor与某个真值框之间的IoU大于等于positive_overlap,则该anchor是正样本,且被分配给该真值框;
  • 若anchor与某个真值框之间的IoU介于[0, negative_overlap),则该anchor是负样本;
  • 不满足以上准则的anchor不参与模型训练。

在RetinaNet中,对于每个anchor,模型都会预测一个C维的向量用于分类,和一个4维的向量用于位置回归,因此各正负样本的分类目标值也是一个C维向量,各正样本的位置回归目标值也是一个4维向量。对于正样本而言,若其被分配的真值框的类别是i,则其分类目标值的第i-1维为1,其余维度为0;其位置回归的目标值由anchor和真值框之间位置差值计算得到。对于负样本而言,其分类目标值的所有维度都为0,因负样本不参与位置回归的训练,故负样本无位置回归的目标值。

分配结束后,从全部anchor的类别预测值cls_logits中取出属于各正负样本的部分,从针对全部anchor的位置预测值bbox_pred中取出属于各正样本的部分。

参数

  • bbox_pred (Variable) – 维度为

    retinanet_target_assign - 图1

    的3-D Tensor,表示全部anchor的位置回归预测值。其中,第一维N表示批量训练时批量内的图片数量,第二维M表示每张图片的全部anchor的数量,第三维4表示每个anchor有四个坐标值。数据类型为float32或float64。

  • cls_logits (Variable) – 维度为

    retinanet_target_assign - 图2

    的3-D Tensor,表示全部anchor的分类预测值。 其中,第一维N表示批量训练时批量内的图片数量,第二维M表示每张图片的全部anchor的数量,第三维C表示每个anchor需预测的类别数量( 注意:不包括背景 )。数据类型为float32或float64。

  • anchor_box (Variable) – 维度为

    retinanet_target_assign - 图3

    的2-D Tensor,表示全部anchor的坐标值。其中,第一维M表示每张图片的全部anchor的数量,第二维4表示每个anchor有四个坐标值

    retinanet_target_assign - 图4

    retinanet_target_assign - 图5

    是anchor的左上顶部坐标,

    retinanet_target_assign - 图6

    是anchor的右下坐标。数据类型为float32或float64。anchor_box的生成请参考OP anchor_generator

  • anchor_var (Variable) – 维度为

    retinanet_target_assign - 图7

    的2-D Tensor,表示在后续计算损失函数时anchor坐标值的缩放比例。其中,第一维M表示每张图片的全部anchor的数量,第二维4表示每个anchor有四个坐标缩放因子。数据类型为float32或float64。anchor_var的生成请参考OP anchor_generator

  • gt_boxes (Variable) – 维度为

    retinanet_target_assign - 图8

    且LoD level必须为1的2-D LoDTensor,表示批量训练时批量内的真值框位置。其中,第一维G表示批量内真值框的总数,第二维表示每个真值框有四个坐标值。数据类型为float32或float64。

  • gt_labels (variable) – 维度为

    retinanet_target_assign - 图9

    且LoD level必须为1的2-D LoDTensor,表示批量训练时批量内的真值框类别,数值范围为

    retinanet_target_assign - 图10

    。其中,第一维G表示批量内真值框的总数,第二维表示每个真值框只有1个类别。数据类型为int32。

  • is_crowd (Variable) – 维度为

    retinanet_target_assign - 图11

    且LoD level必须为1的1-D LoDTensor,表示各真值框是否位于重叠区域,值为1表示重叠,则不参与训练。第一维G表示批量内真值框的总数。数据类型为int32。

  • im_info (Variable) – 维度为

    retinanet_target_assign - 图12

    的2-D Tensor,表示输入图片的尺寸信息。其中,第一维N表示批量训练时批量内的图片数量,第二维3表示各图片的尺寸信息,分别是网络输入尺寸的高和宽,以及原图缩放至网络输入尺寸的缩放比例。数据类型为float32或float64。

  • num_classes (int32) – 分类的类别数量,默认值为1。
  • positive_overlap (float32) – 判定anchor是一个正样本时anchor和真值框之间的最小IoU,默认值为0.5。
  • negative_overlap (float32) – 判定anchor是一个负样本时anchor和真值框之间的最大IoU,默认值为0.4。该参数的设定值应小于等于positive_overlap的设定值,若大于,则positive_overlap的取值为negative_overlap的设定值。

返回

  • predict_scores (Variable) – 维度为

    retinanet_target_assign - 图13

    的2-D Tensor,表示正负样本的分类预测值。其中,第一维F为批量内正样本的数量,B为批量内负样本的数量,第二维C为分类的类别数量。数据类型为float32或float64。

  • predict_location (Variable) — 维度为

    retinanet_target_assign - 图14

    的2-D Tensor,表示正样本的位置回归预测值。其中,第一维F为批量内正样本的数量,第二维4表示每个样本有4个坐标值。数据类型为float32或float64。

  • target_label (Variable) — 维度为

    retinanet_target_assign - 图15

    的2-D Tensor,表示正负样本的分类目标值。其中,第一维F为正样本的数量,B为负样本的数量,第二维1表示每个样本的真值类别只有1类。数据类型为int32。

  • target_bbox (Variable) — 维度为

    retinanet_target_assign - 图16

    的2-D Tensor,表示正样本的位置回归目标值。其中,第一维F为正样本的数量,第二维4表示每个样本有4个坐标值。数据类型为float32或float64。

  • bbox_inside_weight (Variable) — 维度为

    retinanet_target_assign - 图17

    的2-D Tensor,表示位置回归预测值中是否属于假正样本,若某个正样本为假,则bbox_inside_weight中对应维度的值为0,否则为1。第一维F为正样本的数量,第二维4表示每个样本有4个坐标值。数据类型为float32或float64。

  • fg_num (Variable) — 维度为

    retinanet_target_assign - 图18

    的2-D Tensor,表示正样本的数量。其中,第一维N表示批量内的图片数量。 注意:由于正样本数量会用作后续损失函数的分母,为避免出现除以0的情况,该OP已将每张图片的正样本数量做加1操作 。数据类型为int32。

返回类型

元组(tuple),元组中的元素predict_scores,predict_location,target_label,target_bbox,bbox_inside_weight,fg_num都是Variable。

代码示例

  1. import paddle.fluid as fluid
  2. bbox_pred = fluid.data(name='bbox_pred', shape=[1, 100, 4],
  3. dtype='float32')
  4. cls_logits = fluid.data(name='cls_logits', shape=[1, 100, 10],
  5. dtype='float32')
  6. anchor_box = fluid.data(name='anchor_box', shape=[100, 4],
  7. dtype='float32')
  8. anchor_var = fluid.data(name='anchor_var', shape=[100, 4],
  9. dtype='float32')
  10. gt_boxes = fluid.data(name='gt_boxes', shape=[10, 4],
  11. dtype='float32')
  12. gt_labels = fluid.data(name='gt_labels', shape=[10, 1],
  13. dtype='float32')
  14. is_crowd = fluid.data(name='is_crowd', shape=[1],
  15. dtype='float32')
  16. im_info = fluid.data(name='im_info', shape=[1, 3],
  17. dtype='float32')
  18. score_pred, loc_pred, score_target, loc_target, bbox_inside_weight, fg_num = \
  19. fluid.layers.retinanet_target_assign(bbox_pred, cls_logits, anchor_box,
  20. anchor_var, gt_boxes, gt_labels, is_crowd, im_info, 10)