量化因子记录文件说明
量化因子记录文件格式说明
量化因子record文件格式,为基于protobuf协议的序列化数据结构文件,通过该文件、量化配置文件以及原始网络模型文件,生成量化后的模型文件。其对应的protobuf原型定义为:
message SingleLayerRecord { optional float scale_d = 1; optional int32 offset_d = 2; repeated float scale_w = 3; repeated int32 offset_w = 4; repeated uint32 shift_bit = 5; optional uint32 channels = 6; optional uint32 height = 7; optional uint32 width = 8; optional bool skip_fusion = 9 [default = false]; } message ScaleOffsetRecord { message MapFiledEntry { optional string key = 1; optional SingleLayerRecord value = 2; } repeated MapFiledEntry record = 1; }
参数说明如下:
消息 |
是否必填 |
类型 |
字段 |
说明 |
---|---|---|---|---|
ScaleOffsetRecord |
- |
- |
- |
map结构,为保证兼容性,采用离散的map结构。 |
repeated |
MapFiledEntry |
record |
每个record对应一个量化层的量化因子记录;record包括两个成员:
|
|
SingleLayerRecord |
- |
- |
- |
包含了量化层所需要的所有量化因子记录信息。 |
optional |
float |
scale_d |
数据量化scale因子,仅支持对数据进行统一量化。 |
|
optional |
int32 |
offset_d |
数据量化offset因子,仅支持对数据进行统一量化。 |
|
repeated |
float |
scale_w |
权重量化scale因子,支持标量(对当前层的权重进行统一量化),向量(对当前层的权重按channel_wise方式进行量化)两种模式,仅支持卷积层(Convolution),反卷积层(Deconvolution)类型进行channel_wise量化模式。 |
|
repeated |
int32 |
offset_w |
权重量化offset因子,同scale_w一样支持标量和向量两种模式,且需要同scale_w维度一致,当前不支持权重带offset量化模式,offset_w仅支持0。 |
|
repeated |
uint32 |
shift_bit |
移位因子。convert_model接口场景下预留字段,当前不支持,不需要配置。 |
|
optional |
uint32 |
channels |
由于昇腾模型压缩工具不支持整网infer_shape,需要配置当前层的输入shape信息,该字段用于配置输入的channel大小; |
|
optional |
uint32 |
height |
由于昇腾模型压缩工具不支持整网infer_shape,需要配置当前层的输入shape信息,该字段用于配置输入的height大小。 |
|
optional |
uint32 |
width |
由于昇腾模型压缩工具不支持整网infer_shape,需要配置当前层的输入shape信息,该字段用于配置输入的width大小。 |
|
optional |
bool |
skip_fusion |
配置当前层是否要跳过Conv+BN+Scale、Deconv+BN+Scale、BN+Scale+Conv、FC+BN+Scale融合操作,默认为false,即当前层要做上述融合。 |
对于optional字段,由于protobuf协议未对重复出现的值报错,而是采用覆盖处理,因此出现重复配置的optional字段内容时会默认保留最后一次配置的值,需要用户自己保证文件的正确性。
对于一般量化层需要配置包含scale_d、offset_d、scale_w、offset_w、channels、height、width、shift_bit参数,对于AVE Pooling因为没有权重,因此不能够配置scale_w、offset_w参数,量化因子record文件格式参考示例如下:
record { key: "conv1" value: { scale_d: 0.01424 offset_d: -128 scale_w: 0.43213 scale_w: 0.78163 scale_w: 1.03213 offset_w: 0 offset_w: 0 offset_w: 0 shift_bit: 1 shift_bit: 1 shift_bit: 1 channels:3 height: 144 width: 144 skip_fusion: true } } record { key: "pool1" value: { scale_d: 0.532532 offset_d: 13 channels:256 height: 32 width: 32 } } record { key: "fc1" value: { scale_d: 0.37532 offset_d: -67 scale_w: 0.876221 offset_w: 0 shift_bit: 1 channels:1024 height: 1 width: 1 } }
量化因子说明
对于量化层数据和权重分别需要提供量化因子scale(浮点数的缩放因子),offset(偏移量)两项,昇腾模型压缩工具采用的是统一的量化数据格式,其应用表达式为:
支持的取值范围为:
下面介绍上述表达式的由来,量化通常分为对称量化算法、非对称量化算法两类。如下所示:
- 对称量化算法原理:
原始高精度数据和量化后INT8数据的转换为:,其中scale是float32的浮点数,为了能够表示正负数,采用signed int8的数据类型,通过原始高精度数据转换到int8数据的操作如下,其中round为取整函数,量化算法需要确定的数值即为常数scale:
对权值和数据的量化可以归结为寻找scale的过程,由于为有符号数,要保证正负数值表示范围的对称性,因此对所有数据首先进行取绝对值的操作,使待量化数据的范围变换为,再来确定scale。由于INT8在正数范围内能表示的数值范围为[0,127],因此scale可以通过如下方式计算得到:
确定了scale之后,INT8数据对应的表示范围为,量化操作即为对量化数据以进行饱和,即超过范围的数据饱和到边界值,然后进行公式所示量化操作即可。
- 非对称量化算法原理:
与对称量化算法主要区别在于数据转换的方式不同,如下,同样需要确定scale与offset这两个常数。
确定后通过原始高精度数据计算得到UINT8数据的转换,即为如下公式所示:
其中,scale是FP32浮点数,为unsigned INT8定点数,offset是INT8定点数。其表示的数据范围为。若待量化数据的取值范围为,则scale和offset的计算方式如下:
,
而昇腾模型压缩工具采用的是统一的量化数据格式,即量化数据格式统一:
通过将非对称量化公式通过简单的数据变换,可以使得量化后的数据与对称量化算法在数据格式上保持一致,均为int格式。具体变换过程如下:
以int8量化为例进行说明,公式符号与之前保持一致,输入原始高精度浮点数据为,原始量化后的定点数为,量化scale,原始量化(算法要求强制过零点,否则可能会出现精度问题),原始量化的计算原理公式如下:
其中。通过上述变换,可以将量化数据也转成int8格式。确定scale和变换后的offset'后,通过原始高精度浮点数据计算得到INT8数据的转换既为如下公式所示: