下载
中文
注册
我要评分
文档获取效率
文档正确性
内容完整性
文档易理解
在线提单
论坛求助
昇腾小AI

export_quant_onnx

功能说明

量化参数配置类,通过calibrator类封装量化算法来保存量化后的onnx模型。

函数原型

export_quant_onnx(save_path, fuse_add=True, use_external=Flase)

参数说明

参数名

输入/返回值

含义

使用限制

save_path

输入

量化模型的存放路径。

必选。

数据类型:String。

fuse_add

输入

导出的量化模型是否融合量化bias。

可选。

数据类型:bool。

默认为True。

use_external

输入

是否需要使用额外数据存储模型。若模型保存体积过大(>2GB),则需开启该参数使用额外数据存储模型。

可选。

数据类型:bool。

默认为False。

调用示例

from msmodelslim.onnx.squant_ptq import OnnxCalibrator, QuantConfig 
quant_config = QuantConfig(disable_names=[],
                     quant_mode=0,
                     amp_num=0)
output_model_path="/home/xxx/Resnet50/resnet50_quant.onnx"    #根据实际情况配置 
calibrator = Calibrator(input_model_path, quant_config)
calibrator.run() 
calibrator.export_quant_onnx(output_model_path)
搜索结果
找到“0”个结果

当前产品无相关内容

未找到相关内容,请尝试其他搜索词