训练后量化接口,根据修改后的图结构,插入AscendQuant、AscendDequant等算子,将模型保存为可以做推理的文件,支持保存为可在Caffe环境下做精度仿真的fake_quant模型,和可在昇腾AI处理器上做推理的deploy模型。
save_model(graph, save_type, save_path)
参数名 |
输入/返回值 |
含义 |
使用限制 |
---|---|---|---|
graph |
输入 |
经过quantize_model接口修改后的图结构。 |
数据类型:工具自定义的数据结构Graph |
save_type |
输入 |
保存模型的类型:
|
数据类型:string |
save_path |
输入 |
模型存放路径。 该路径需要包含模型名前缀,例如./quantized_model/*model。 |
数据类型:string |
无。
fake_quant模型主要用于验证量化后模型的精度,可以在Caffe框架下运行。进行前向推理的计算过程中,在fake_quant模型中对卷积层等的输入数据和权重进行了量化反量化的操作,来模拟量化后的计算结果,从而快速验证量化后模型的精度。
重新执行量化时,该接口输出的上述文件将会被覆盖。
from amct_caffe import save_model # 在Caffe环境中对修改后的模型做batch_num次推理,以完成量化 run_caffe_model(modified_model_file, modified_weights_file, batch_num) # 插入API,将量化的模型存为prototxt模型文件以及caffemodel权重文件,在./quantized_model中生成五个文件:model_fake_quant_model.prototxt,model_fake_quant_weights.caffemodel,model_deploy_model.prototxt,model_deploy_weights.caffemodel,model_quant.json。 save_model(graph=graph, save_type="Both", save_path="./quantized_model/model")