下载
中文
注册
我要评分
文档获取效率
文档正确性
内容完整性
文档易理解
在线提单
论坛求助
昇腾小AI

run_quantize

功能说明

模型量化接口,对用户提供的模型根据配置的量化参数进行量化,并保存量化后模型。

函数原型

run_quantize(input_model_path, output_model_path, quant_config)

参数说明

参数名

输入/返回值

含义

使用限制

input_model_path

输入

待量化模型存放路径和文件名。

必选。

数据类型:String。

output_model_path

输入

量化后的模型的存放路径和文件名。

必选。

数据类型:String。

quant_config

输入

根据QuantConfig生成的量化配置实例。

必选。

数据类型:QuantConfig。

调用示例

from modelslim.onnx.post_training_quant import QuantConfig, run_quantize
def custom_read_data():
    calib_data = []
    # TODO 读取数据集,进行数据预处理,将数据存入calib_data
    return calib_data
calib_data = custom_read_data() 
quant_config = QuantConfig(calib_data=calib_data, amp_num=5)
input_model_path="/home/xxx/Resnet50/resnet50_pytorch.onnx"   #根据实际路径配置
output_model_path="/home/xxx/Resnet50/resnet50_quant.onnx"    #根据实际情况配置
run_quantize(input_model_path,output_model_path,quant_config)
搜索结果
找到“0”个结果

当前产品无相关内容

未找到相关内容,请尝试其他搜索词