下载
中文
注册
我要评分
文档获取效率
文档正确性
内容完整性
文档易理解
在线提单
论坛求助
昇腾小AI

quantize_model

功能说明

训练后量化接口,根据用户设置的量化配置文件对图结构进行量化处理,该函数在config_file指定的层插入权重量化层,完成权重量化,并插入数据量化层,将修改后的网络存为新的模型文件。

函数原型

quantize_model(graph, modified_model_file, modified_weights_file)

参数说明

参数名

输入/返回值

含义

使用限制

graph

输入

用户模型经过init接口解析出来的图结构。

数据类型:工具自定义的数据结构Graph

modified_model_file

输入

文件名,用于存储插入量化层的Caffe模型定义文件(格式为.prototxt)。

数据类型:string

modified_weights_file

输入

文件名,用于存储插入量化层的Caffe模型权重文件(格式为.caffemodel)。

数据类型:string

返回值说明

无。

函数输出

  • 量化因子:在init接口中的scale_offset_record_file中写入量化层的权重量化因子(scale_w,offset_w)。
  • modified_model_file:修改后模型的定义文件,在原始模型上插入了量化层。
  • modified_weights_file:修改后模型的权重文件,在原始模型上插入了量化层。

重新执行量化时,该接口输出的文件将会被覆盖。

调用示例

from amct_caffe import quantize_model
# 插入量化API
quantize_model(graph=graph,
               modified_model_file="./quantized_model/modified_model.prototxt",
               modified_weights_file="./quantized_model/modified_model.caffemodel")
搜索结果
找到“0”个结果

当前产品无相关内容

未找到相关内容,请尝试其他搜索词