save_model

功能说明

训练后量化接口,根据修改后的图结构,插入AscendQuant、AscendDequant等算子,将模型保存为可以做推理的文件,支持保存为可在Caffe环境下做精度仿真的fake_quant模型,和可在昇腾AI处理器上做推理的deploy模型。

约束说明

函数原型

save_model(graph, save_type, save_path)

参数说明

参数名

输入/返回值

含义

使用限制

graph

输入

经过quantize_model接口修改后的图结构。

数据类型:工具自定义的数据结构Graph

save_type

输入

保存模型的类型:

  • Fakequant表示存储精度仿真模型。
  • Deploy表示存储可在昇腾AI处理器做推理的部署模型。
  • Both表示两种模型都进行存储。

数据类型:string

save_path

输入

模型存放路径。

该路径需要包含模型名前缀,例如./quantized_model/*model

数据类型:string

返回值说明

无。

函数输出

重新执行量化时,该接口输出的上述文件将会被覆盖。

调用示例

from amct_caffe import save_model

# 在Caffe环境中对修改后的模型做batch_num次推理,以完成量化
run_caffe_model(modified_model_file, modified_weights_file, batch_num)

# 插入API,将量化的模型存为prototxt模型文件以及caffemodel权重文件,在./quantized_model中生成五个文件:model_fake_quant_model.prototxt,model_fake_quant_weights.caffemodel,model_deploy_model.prototxt,model_deploy_weights.caffemodel,model_quant.json。
save_model(graph=graph,
           save_type="Both",
           save_path="./quantized_model/model")