quantize_model
功能说明
将输入的待量化的图结构按照给定的量化配置文件进行量化处理,在传入的图结构中插入权重量化,以及数据量化等相关的算子,生成量化因子记录文件record_file,返回修改后的ONNX校准模型。
函数原型
quantize_model(config_file, model_file, modified_onnx_file, record_file)
参数说明
参数名 |
输入/返回值 |
含义 |
使用限制 |
---|---|---|---|
config_file |
输入 |
用户生成的量化配置文件,用于指定模型network中量化层的配置情况。 |
数据类型:string |
model_file |
输入 |
用户原始onnx模型文件或者通过create_quant_config生成的updated模型。 |
数据类型:string |
modified_onnx_file |
输入 |
文件名,用于存储待执行数据量化的ONNX校准模型。 |
数据类型:string |
record_file |
输入 |
量化因子记录文件路径及名称。 |
数据类型:string |
返回值说明
无。
调用示例
1 2 3 4 5 6 7 8 9 10 11 |
import amct_onnx as amct model_file = "resnet101.onnx" scale_offset_record_file = os.path.join(TMP, 'scale_offset_record.txt') modified_model = os.path.join(TMP, 'modified_model.onnx') config_file="./configs/config.json" # 插入量化API amct.quantize_model(config_file, model_file, modified_model, scale_offset_record_file) |
父主题: 训练后量化接口