下载
中文
注册
我要评分
文档获取效率
文档正确性
内容完整性
文档易理解
在线提单
论坛求助
昇腾小AI

export_safetensors()

功能说明

将压缩后的权重保存为safetensors格式的文件,并生成对应的描述文件。

Compressor中的选择weight、quant_model_description参数时,需要用此函数导出。

函数原型

Compressor.export_safetensors(path, safetensors_name=None, json_name=None)

参数说明

参数名

输入/返回值

含义

使用限制

path

输入

压缩结果的保存路径。

必选。

数据类型:String。

safetensors_name

输入

safe_tensor格式压缩权重文件的名称。

可选。

数据类型:String。

本参数默认为None,输出文件名为quant_model_weight_w8a8sc.safetensors。

json_name

输入

safe_tensor格式压缩权重json描述文件的名称。

可选。

数据类型:String。

本参数默认为None,输出文件名为quant_model_description_w8a8sc.json。

调用示例

from safetensors.torch import load_file
import json
# 导入权重压缩接口
from msmodelslim.pytorch.weight_compression import CompressConfig, Compressor
# 准备待压缩权重文件和相关压缩配置,请根据实际情况进行修改
weight_path = "./quant_model_weight_w8a8s.safetensors"       # 待压缩权重文件的路径
save_path = "./w8a8sc_llama2-7b"                          # 压缩后权重文件保存的路径
json_path = "./quant_model_description_w8a8s.json"          # 待压缩权重文件的描述文件的路径
# 使用CompressConfig接口,配置压缩参数,并返回配置实例
compress_config = CompressConfig(do_pseudo_sparse=False, sparse_ratio=1, is_debug=True, record_detail_root=save_path, multiprocess_num=8)
sparse_weight = load_file(weight_path)
with open(json_path, 'r') as f:
    quant_model_description = json.load(f)
#使用Compressor接口,输入加载的压缩配置和待压缩权重文件
compressor = Compressor(compress_config, weight=sparse_weight, quant_model_description=quant_model_description)
compress_weight, compress_index, compress_info = compressor.run()
#使用export_safetensors()接口,保存压缩后的结果文件
compressor.export_safetensors(path, safetensors_name=None, json_name=None)
搜索结果
找到“0”个结果

当前产品无相关内容

未找到相关内容,请尝试其他搜索词