文档
注册

save_model

功能说明

训练后量化接口,根据量化因子记录文件record_file和用户待量化的原始pb模型,插入AscendQuant、AscendDequant等算子,然后保存为既可以在TensorFlow环境进行精度仿真又可以在昇腾AI处理器做离线推理的pb模型文件。

约束说明

  • 在网络推理的batch数目达到batch_num后,再调用该接口,否则量化因子不正确,量化结果不正确。
  • 该接口只接收pb类型的模型文件,用户需要将待量化模型提前转换为pb类型。
  • 该接口需要输入量化因子记录文件,量化因子记录文件在quantize_model阶段生成,在模型推理阶段填充有效值。

函数原型

save_model(pb_model, outputs, record_file, save_path)

参数说明

参数名

输入/返回值

含义

使用限制

pb_model

输入

用户待量化的原始pb模型文件。

数据类型:string

outputs

输入

graph中输出算子的列表。

数据类型:list,列表中元素类型为string

record_file

输入

量化因子记录文件路径及名称。通过该文件、量化配置文件以及原始pb模型文件,生成量化后的模型文件。

数据类型:string

save_path

输入

模型存放路径。

该路径需要包含模型名前缀,例如./quantized_model/*model

数据类型:string

返回值说明

无。

函数输出

既可以在TensorFlow环境进行精度仿真又可以在昇腾AI处理器做离线推理的pb模型文件。

重新执行量化时,该接口输出的上述文件将会被覆盖。

调用示例

import amct_tensorflow as amct
# 进行网络推理,期间完成量化
for i in batch_num:
    sess.run(outputs, feed_dict={inputs: inputs_data})
# 插入API,将量化的模型存为PB文件
amct.save_model(pb_model="./user_model.pb",
                outputs=["model/outputs"],
                record_file="./record_scale_offset.txt",
                save_path="./inference/model")
搜索结果
找到“0”个结果

当前产品无相关内容

未找到相关内容,请尝试其他搜索词