扩展算子规则
扩展算子的实现可以在Caffe、TensorFlow、MindSpore深度学习框架中实现,扩展算子中的第一种是基于Caffe框架进行扩展实现的,如ROIPooling、PSROIPooling、Normalize和Upsample层等,因此有公开的prototxt标准定义。而扩展算子中的第二种并不是在Caffe框架下实现的,对于这类网络中的自定义算子,也需要给出prototxt的标准定义,用于在prototxt中定义网络中相应的算子。
Reverse
在指定的轴上反序,如输入为[1,2,3],其反序为[3,2,1]。
算子定义如下:
- 在LayerParameter中添加ReverseParameter
message LayerParameter { ... optional ReverseParameter reverse_param = 157; ... }
- 定义ReverseParameter类型以及属性参数
message ReverseParameter{ repeated int32 axis = 1; }
ROIPooling
在目标检测算法中,region proposal产生的ROI大小不一,而分类网络的FC层要固定的输入,所以ROIPooing起到一个连接作用。
ROIPooling层为Faster RCNN网络中用于将不同图像经过卷积层后得到的feature map进行维度统一的操作,输入为一个feature map以及需要从中提取的ROI框坐标值,输出为一个维度归一化的feature map。
ROIPooling层需要对caffe.proto文件进行扩展,定义ROIPoolingParameter,扩展方式如下所示,定义的参数包括:
- spatial_scale,即输入feature map与原始图片的尺寸比例,用于转换ROI的坐标,因为ROI坐标是在原图尺寸上的。
- pooled_h、pooled_w,输出feature map在spatial维度上h和w的大小。
- 在LayerParameter中添加ROIPoolingParameter
message LayerParameter { ... optional ROIPoolingParameter roi_pooling_param = 161; ... }
- 定义ROIPoolingParameter类型以及属性参数
message ROIPoolingParameter { required int32 pooled_h = 1; required int32 pooled_w = 2; optional float spatial_scale = 3 [default=0.0625]; optional float spatial_scale_h = 4; optional float spatial_scale_w = 5; }
基于上述原则,ROIPooling层在prototxt中定义的代码样例如下:
layer { name: "roi_pooling" type: "ROIPooling" bottom: "res4f" bottom: "rois" bottom: "actual_rois_num" top: "roi_pool" roi_pooling_param { pooled_h: 14 pooled_w: 14 spatial_scale:0.0625 spatial_scale_h:0.0625 spatial_scale_w:0.0625 } }
PSROIPooling
PSROIPooling层的操作与ROIPooling层类似,不同之处在于不同空间维度输出的图片特征来自不同的feature map channels,且对每个小区域进行的是Average Pooling,不同于ROIPooling的Max Pooling。
对于一个输出k*k的结果,不同空间维度的特征取自输入feature map中不同的组,即将输入的feature map均匀分为k*k组,每组的channel数与输出的channel一致,得到上述输出。
PSROIPooling层需要对caffe.proto文件进行扩展,定义PSROIPoolingParameter,扩展方式如下所示,定义的参数包括:
- spatial_scale,即输入feature map与原始图片的尺寸比例。
- output_dim,输出feature map的channel。
- group_size,输出的spatial维度,即上述的k。
- 在LayerParameter中添加PSROIPoolingParameter
message LayerParameter { ... optional PSROIPoolingParameter psroi_pooling_param = 207; ... }
- 定义PSROIPoolingParameter类型以及属性参数
message PSROIPoolingParameter { required float spatial_scale = 1; required int32 output_dim = 2; // output channel number required int32 group_size = 3; // number of groups to encode position-sensitive score maps }
基于上述原则,PSROIPooling层在prototxt中定义的代码样例如下:
layer { name: "psroipooling" type: "PSROIPooling" bottom: "some_input" bottom: "some_input" top: "some_output" psroi_pooling_param { spatial_scale: 0.0625 output_dim: 21 group_size: 7 } }
Upsample
Upsample层为Pooling层的逆操作,其中每个Upsample层均与网络之前一个对应大小输入、输出Pooling层一一对应,完成feature map在spatial维度上的扩充。
Upsample层需要对caffe.proto文件进行扩展,定义UpsampleParameter,扩展方式示例如下所示。 定义的参数包括stride,即输出与输入的尺寸比例,如2。
- 在LayerParameter中添加UpsampleParameter
message LayerParameter { ... optional UpsampleParameter upsample_param = 160; ... }
- 定义UpsampleParameter类型以及属性参数
message UpsampleParameter{ optional float scale = 1[default = 1]; optional int32 stride = 2[default = 2]; optional int32 stride_h = 3[default = 2]; optional int32 stride_w = 4[default=2]; }
基于上述原则,Upsample在prototxt中定义的代码样例如下:
layer { name: "layer86-upsample" type: "Upsample" bottom: "some_input" top: "some_output" upsample_param { scale: 1 stride: 2 } }
Normallize
Normalize层为SSD网络中的一个归一化层,主要作用是将空间或者通道内的元素归一化到0到1之间,其进行的操作为对于一个c*h*w的三维tensor,输出是同样大小的tensor,其中间计算为每个元素以channel方向的平方和的平方根求normalize,其具体计算公式为:
其中分母位置的平方和的累加向量为同一h与w位置的所有c方向的向量,如图1中的橙色区域。
经过上述计算归一化后,再对每个feature map做scale,每个channel对应一个scale值。
Normalize层需要对caffe.proto文件进行扩展,定义NormalizeParameter,扩展方式如下所示。定义的参数包括:
- across_spatial参数表示是否对整个图片进行归一化,归一化的维度为:1 x c x h x w,否则对每个像素点进行归一化:1 x c x 1 x 1。
- channels_shared表示scale是否相同,如果为true,则scale都是一样的,否则对于channel一样,对不同channel像素点是不一样的,默认为True。
- eps防止normalize过程中除以0的一个很小数值,默认为1e-10,可配置。
normalize的计算公式转换为:
算子定义如下:
- 在LayerParameter中添加NormalizeParameter
message LayerParameter { ... optional NormalizeParameter norm_param = 206; ... }
- 定义NormalizeParameter类型以及属性参数
message NormalizeParameter { optional bool across_spatial = 1 [default = true]; // Initial value of scale. Default is 1.0 for all optional FillerParameter scale_filler = 2; // Whether or not scale parameters are shared across channels. optional bool channel_shared = 3 [default = true]; // Epsilon for not dividing by zero while normalizing variance optional float eps = 4 [default = 1e-10]; }
基于上述原则,Normalize在prototxt中定义的代码样例如下:
layer { name: "normalize_layer" type: "Normalize" bottom: ""some_input" top: "some_output" norm_param { across_spatial: false scale_filler { type: "constant" value: 20 } channel_shared: false } }
Reorg
Reorg算子在昇腾AI处理器内部以PassThrough算子呈现,将通道数据转移到平面上,或反过来操作。
PassThrough层为Yolo v2中的一个自定义层,由于Yolo v2并不是使用Caffe框架实现,因此对于该层没有标准的定义。该层实现的功能为将feature map在spatial维度上的数据展开到channel维度上,原始在channel维度上连续的元素在展开后的feature map中依然是连续的。
算子定义如下:
- 在LayerParameter中添加ReorgParameter
message LayerParameter { ... optional ReorgParameter reorg_param = 155; ... }
- 定义ReorgParameter类型以及属性参数
message ReorgParameter{ optional uint32 stride = 2 [default = 2]; optional bool reverse = 1 [default = false]; }
基于上述原则,Reorg在prototxt中定义的代码样例如下:
layer { bottom: "some_input" top: "some_output" name: "reorg" type: "Reorg" reorg_param { stride: 2 } }
Proposal
Proposal算子根据rpn_cls_prob的foreground,rpn_bbox_pred中的bounding box regression修正anchors获得精确的proposals。
具体可以分为3个算子decoded_bbox、topk和nms,实现如图2所示。
算子定义如下:
- 在LayerParameter中添加ProposalParameter
message LayerParameter { ... optional ProposalParameter proposal_param = 201; ... }
- 定义ProposalParameter类型以及属性参数
message ProposalParameter { optional float feat_stride = 1 [default = 16]; optional float base_size = 2 [default = 16]; optional float min_size = 3 [default = 16]; repeated float ratio = 4; repeated float scale = 5; optional int32 pre_nms_topn = 6 [default = 3000]; optional int32 post_nms_topn = 7 [default = 304]; optional float iou_threshold = 8 [default = 0.7]; optional bool output_actual_rois_num = 9 [default = false]; }
基于上述原则,Proposal在prototxt中定义的代码样例如下:
layer { name: "faster_rcnn_proposal" type: "Proposal" // 算子Type bottom: "rpn_cls_prob_reshape" bottom: "rpn_bbox_pred" bottom: "im_info" top: "rois" top: "actual_rois_num" // 增加的算子输出 proposal_param { feat_stride: 16 base_size: 16 min_size: 16 pre_nms_topn: 3000 post_nms_topn: 304 iou_threshold: 0.7 output_actual_rois_num: true } }
如果用户的网络模型中存在“Proposal+ROIAlign+业务算子”相关的网络结构,由于Proposal算子的输出为3维,而ROIAlign算子的rois是2维,因此需要在Proposal算子后面增加Reshape算子,用来改变Tensor shape,然后作为ROIAlign的输入。但该场景下输入给ROIAlign算子的rois框数据,坐标排序混乱,不符合ROIAlign算子的要求。
基于上述问题,需要在Reshape算子后再增加Permute算子,进行转置之后,再次输出的数据符合ROIAlign算子的要求。
修改后的网络结构样例如下:
对应修改后的prototxt中代码样例如下:
layer { name: 'proposal' type: 'Proposal' bottom: 'rpn_cls' bottom: 'rpn_loc' bottom: 'img_info' top: 'roi_proposal' proposal_param { feat_stride: 16 pre_nms_topn: 1000 post_nms_topn: 16 nms_thresh: 0.7 base_size: 16 min_size: 8 ratio: [0.5, 1.0, 2.0] scale: [32, 64, 128, 256, 512] } } layer { name: "Reshape1" type: "Reshape" bottom: "roi_proposal" top: "roi_proposal_reshape" reshape_param { shape { dim: 5 dim: 16 } } } layer { name: "Permute1" type: "Permute" bottom: "roi_proposal_reshape" top: "roi_proposal_permute" permute_param { order: 1 order: 0 } } layer { name: "align" type: "ROIAlign" bottom: "111" bottom: "roi_proposal_permute" top: "align" roi_align_param { pooled_w: 14 pooled_h: 14 spatial_scale: 0.0625 } }
ROIAlign
ROIAlign是在Mask-RCNN论文里提出的一种区域特征聚集方式,与ROIPooling算法进行改进:用双线性插值替换ROIPooling操作中两次量化,以解决ROIPooling造成的区域不匹配的问题,提高检测准确性。
ROIAlign算子是从feature map中获取ROI(range of interest),分为pooled_w x pooled_h个单元格,每个单元格均分为sampling_ratio*sampling_ratio个小方格,每个小方格的中心点就是采样点。如图3所示,虚线部分表示feature map,实线表示ROI,这里将ROI切分成2x2的单元格。如果采样点数是4,则首先将每个单元格子均分成四个小方格(如红色线所示),每个小方格中心就是采样点。由于采样点的坐标通常是浮点数,所以需要对采样点像素进行双线性插值(如图3中的四个箭头所示),就可以得到该像素点的值了。然后对每个单元格内的四个采样点取均值,就可以得到最终的ROIAlign的结果。
算子定义如下:
- 在LayerParameter中添加ROIAlignParameter
message LayerParameter { ... optional ROIAlignParameter roi_align_param = 154; ... }
- 定义ROIAlignParameter类型以及属性参数
message ROIAlignParameter { // Pad, kernel size, and stride are all given as a single value for equal // dimensions in height and width or as Y, X pairs. optional uint32 pooled_h = 1 [default = 0]; // The pooled output height optional uint32 pooled_w = 2 [default = 0]; // The pooled output width // Multiplicative spatial scale factor to translate ROI coords from their // input scale to the scale used when pooling optional float spatial_scale = 3 [default = 1]; optional int32 sampling_ratio = 4 [default = -1]; optional int32 roi_end_mode = 5 [default = 0]; }
根据上述类型以及属性用户可以自定义prototxt。
ShuffleChannel
ShuffleChannel是把channel维度分为[group, channel/Group],然后再在channel维度中进行数据转置[channel/Group,group]。
例如对于channel=4,group=2,则执行此算子后,就是把channel[1]、channel[2]的数据交换位置。
算子定义如下:
- 在LayerParameter中添加ShuffleChannelParameter
message LayerParameter { ... optional ShuffleChannelParameter shuffle_channel_param = 159; ... }
- 定义ShuffleChannelParameter类型以及属性参数
message ShuffleChannelParameter{ optional uint32 group = 1[default = 1]; // The number of group }
基于上述原则,ShuffleChannel在prototxt中定义的代码样例如下:
layer { name: "layer_shuffle" type: "ShuffleChannel" bottom: "some_input" top: "some_output" shuffle_channel_param { group: 3 } }
Yolo
YOLO算子出现在YOLO V2网络,且目前仅在YOLO V2、V3网络中使用,对数据做sigmoid和softmax操作。
- 在YOLO V2中,根据background和softmax的参数,有4种场景:
- background=false,softmax=true,
- background=false,softmax=false,
- background=true,softmax=false,
- background=true,softmax= true,
- 在YOLO V3中,只有一种场景:对(x,y,h,w)中的(x,y)做sigmoid,对b做sigmoid,对classes做sigmoid。
输入数据格式为Tensor(n, coords+backgroup+classes,l.h,l.w),其中n是anchor box的数量,coords表示x,y,w,h。
算子定义如下:
- 在LayerParameter中添加YoloParameter
message LayerParameter { ... optional YoloParameter yolo_param = 199; ... }
- 定义YoloParameter类型以及属性参数
message YoloParameter { optional int32 boxes = 1 [default = 3]; optional int32 coords = 2 [default = 4]; optional int32 classes = 3 [default = 80]; optional string yolo_version = 4 [default = "V3"]; optional bool softmax = 5 [default = false]; optional bool background = 6 [default = false]; optional bool softmaxtree = 7 [default = false]; }
基于上述原则,Yolo在prototxt中定义的代码样例如下:
layer { bottom: "layer82-conv" top: "yolo1_coords" top: "yolo1_obj" top: "yolo1_classes" name: "yolo1" type: "Yolo" yolo_param { boxes: 3 coords: 4 classes: 80 yolo_version: "V3" softmax: true background: false } }
PriorBox
根据输入的参数,生成prior box。
下面以conv7_2_mbox_priorbox为例,根据对应的参数生成prior box的数量。定义如下:
layer{ name:"conv7_2_mbox_priorbox" type:"PriorBox" bottom:"conv7_2" bottom:"data" top:"conv7_2_mbox_priorbox" prior_box_param{ min_size:162.0 max_size:213.0 aspect_ratio:2 aspect_ratio:3 flip:true clip:false variance:0.1 variance:0.1 variance:0.2 variance:0.2 img_size:300 step:64 offset:0.5 } }
- 宽高都为minsize生成prior box。
- 如果存在max_size,则用sqrt(min_size*max_size)确定宽高生成一个框(约束,max_size>min_size)。
- 根据aspect_ratio(如定义所示aspect_ratio为2,3,flip是true,自动添加aspect_ratio=1/2、1/3),生成对应的prior box。
因此,num_priors(prior box的数量)= min_size的数量+aspect_ratio的数量(这里为4)*min_size的数量(这里为1)+max_size的数量 (max_size的数量和min_size的数量一一对应)。
算子定义如下:
- 在LayerParameter中添加PriorBoxParameter
message LayerParameter { ... optional PriorBoxParameter prior_box_param = 203; ... }
- 定义PriorBoxParameter类型以及属性参数
message PriorBoxParameter { // Encode/decode type. enum CodeType { CORNER = 1; CENTER_SIZE = 2; CORNER_SIZE = 3; } // Minimum box size (in pixels). Required! repeated float min_size = 1; // Maximum box size (in pixels). Required! repeated float max_size = 2; // Various of aspect ratios. Duplicate ratios will be ignored. // If none is provided, we use default ratio 1. repeated float aspect_ratio = 3; // If true, will flip each aspect ratio. // For example, if there is aspect ratio "r", // we will generate aspect ratio "1.0/r" as well. optional bool flip = 4 [default = true]; // If true, will clip the prior so that it is within [0, 1] optional bool clip = 5 [default = false]; // Variance for adjusting the prior bboxes. repeated float variance = 6; // By default, we calculate img_height, img_width, step_x, step_y based on // bottom[0] (feat) and bottom[1] (img). Unless these values are explicitely // provided. // Explicitly provide the img_size. optional uint32 img_size = 7; // Either img_size or img_h/img_w should be specified; not both. optional uint32 img_h = 8; optional uint32 img_w = 9; // Explicitly provide the step size. optional float step = 10; // Either step or step_h/step_w should be specified; not both. optional float step_h = 11; optional float step_w = 12; // Offset to the top left corner of each cell. optional float offset = 13 [default = 0.5]; }
基于上述原则,PriorBox在prototxt中定义的代码样例如下:
layer { name: "layer_priorbox" type: "PriorBox" bottom: "some_input" bottom: "some_input" top: "some_output" prior_box_param { min_size: 30.0 max_size: 60.0 aspect_ratio: 2 flip: true clip: false variance: 0.1 variance: 0.1 variance: 0.2 variance: 0.2 step: 8 offset: 0.5 } }
SpatialTransformer
该算子计算过程其实做了一个仿射变换:仿射变换的参数,可以是在prototxt固定的,多个batch使用一份;也可以是层的第二个输入,每个batch使用不一样的参数。
计算步骤:
- 对于输出坐标,通过如下公式将其变换成[-1,1]区间中的值。
计算代码如下:
Dtype* data = output_grid.mutable_cpu_data(); for(int i=0; i< output_H_ * output_W_; ++i) { data[3 * i] = (i / output_W_) * 1.0 / output_H_ * 2 - 1; data[3 * i + 1] = (i % output_W_) * 1.0 / output_W_ * 2 - 1; data[3 * i + 2] = 1; }
- 通过仿射变换,转换为输入的坐标,其中s为输入坐标,t为输出坐标,计算公式如下:
计算代码如下:
caffe_cpu_gemm<Dtype>(CblasNoTrans, CblasTrans, output_H_ * output_W_, 2, 3, (Dtype)1., output_grid_data, full_theta_data + 6 * i, (Dtype)0., coordinates);
- 通过输入坐标取对应位置的值,赋值给输出的对应位置。因为在第一步对输出坐标做了一次转换,所以对应的输入坐标,使用同样的方式再缩放回去,代码样例如下:
Dtype x = (px + 1) / 2 * H; Dtype y = (py + 1) / 2 * W; if(debug) std::cout<<prefix<<"(x, y) = ("<<x<<", "<<y<<")"<<std::endl; for(int m = floor(x); m <= ceil(x); ++m) for(int n = floor(y); n <= ceil(y); ++n) { if(debug) std::cout<<prefix<<"(m, n) = ("<<m<<", "<<n<<")"<<std::endl; if(m >= 0 && m < H && n >= 0 && n < W) { res += (1 - abs(x - m)) * (1 - abs(y - n) * pic[m * W + n]); if(debug) std::cout<<prefix<<" pic[m * W + n]= "<<std::endl; } }
算子定义如下:
- 在LayerParameter中添加SpatialTransformParameter
message LayerParameter { ... optional SpatialTransformParameter spatial_transform_param = 153; ... }
- 定义SpatialTransformParameter类型以及属性参数
message SpatialTransformParameter { optional uint32 output_h = 1 [default = 0]; optional uint32 output_w = 2 [default = 0]; optional float border_value = 3 [default = 0]; repeated float affine_transform = 4; enum Engine { DEFAULT = 0; CAFFE = 1; CUDNN = 2; } optional Engine engine = 15 [default = DEFAULT]; }
基于上述原则,SpatialTransform层在prototxt中定义的代码样例如下:
layer { name: "st_1" type: "SpatialTransformer" bottom: "data" bottom: "theta" top: "transformed" st_param { to_compute_dU: false theta_1_1: -0.129 theta_1_2: 0.626 theta_2_1: 0.344 theta_2_2: 0.157 } }