文档
注册

convert_qat_model

功能说明

根据TensorFlow的QAT量化模型,适配成分别可以在CPU、GPU上进行精度仿真和昇腾AI处理器上部署的量化模型。

约束说明

仅支持适配含有FakeQuantWithMinMaxVars和FakeQuantWithMinMaxVarsPerchannel算子的TensorFlow模型,格式为.pb。

函数原型

convert_qat_model(pb_model, outputs, save_path, record_file=None)

参数说明

参数名

输入/返回值

含义

使用限制

pb_model

输入

待适配的QAT模型路径。

数据类型:string

outputs

输入

graph中输出算子的列表。

数据类型:list

record_file

输入

用户计算得到的量化因子记录文件路径,量化因子记录文件格式为.txt。

数据类型:string

默认值为:None

save_path

输入

模型存放路径。该路径需要包含模型名前缀,例如./quantized_model/*model

数据类型:string

返回值说明

graph中输出算子的列表。

函数输出

既可以在TensorFlow环境进行精度仿真又可以在昇腾AI处理器做离线推理的pb模型文件。

重新执行适配时,该接口输出的上述文件将会被覆盖。

调用示例

import amct_tensorflow as amct
convert_qat_model(pb_model, outputs, save_path)
搜索结果
找到“0”个结果

当前产品无相关内容

未找到相关内容,请尝试其他搜索词