convert_qat_model
功能说明
根据TensorFlow的QAT量化模型,适配成分别可以在CPU、GPU上进行精度仿真和昇腾AI处理器上部署的量化模型。
约束说明
仅支持适配含有FakeQuantWithMinMaxVars和FakeQuantWithMinMaxVarsPerchannel算子的TensorFlow模型,格式为.pb。
函数原型
convert_qat_model(pb_model, outputs, save_path, record_file=None)
参数说明
参数名 |
输入/返回值 |
含义 |
使用限制 |
---|---|---|---|
pb_model |
输入 |
待适配的QAT模型路径。 |
数据类型:string |
outputs |
输入 |
graph中输出算子的列表。 |
数据类型:list |
record_file |
输入 |
用户计算得到的量化因子记录文件路径,量化因子记录文件格式为.txt。 |
数据类型:string 默认值为:None |
save_path |
输入 |
模型存放路径。该路径需要包含模型名前缀,例如./quantized_model/*model。 |
数据类型:string |
返回值说明
graph中输出算子的列表。
函数输出
既可以在TensorFlow环境进行精度仿真又可以在昇腾AI处理器做离线推理的pb模型文件。
重新执行适配时,该接口输出的上述文件将会被覆盖。
调用示例
import amct_tensorflow as amct convert_qat_model(pb_model, outputs, save_path)
父主题: 模型适配