文档
注册

概览

手册

介绍

AMCT工具(Caffe)

介绍如何通过AMCT(AMCT,Ascend Model Compression Toolkit)对Caffe框架的原始网络模型进行压缩,并介绍了使用的压缩方法:量化(训练后量化和量化感知训练)、张量分解。

AMCT工具(TensorFlow)

介绍如何通过AMCT(AMCT,Ascend Model Compression Toolkit)对TensorFlow框架的原始网络模型进行压缩,并介绍了使用的压缩方法:量化(训练后量化和量化感知训练)、通道稀疏、组合压缩、近似校准、张量分解。

AMCT工具(PyTorch)

介绍如何通过AMCT(AMCT,Ascend Model Compression Toolkit)对PyTorch框架的原始网络模型进行压缩,并介绍了使用的压缩方法:量化(训练后量化和量化感知训练)、通道稀疏、组合压缩、张量分解。

AMCT工具(ONNX)

介绍如何使用AMCT(AMCT,Ascend Model Compression Toolkit)对ONNX网络模型进行压缩,并介绍了使用的压缩方法:量化(仅支持训练后量化)。

AMCT工具(TensorFlow,Ascend)

介绍如何基于安装了TF_Adapter TensorFlow框架的AMCT(AMCT,Ascend Model Compression Toolkit)对TensorFlow框架的网络模型进行压缩,并介绍了使用的压缩方法:量化(仅支持训练后量化)。

需要借助带有NPU设备的在线推理环境。

AMCT工具(MindSpore)

介绍如何通过AMCT(AMCT,Ascend Model Compression Toolkit)对MindSpore框架的原始网络模型进行压缩,并介绍了使用的压缩方法:量化,训练后量化和量化感知训练。

需要带NPU设备的训练环境(量化后输出的*.air格式模型只能借助带NPU设备的训练环境导出)。

AMCT工具(AscendCL方式)

介绍如何使用基于AscendCL接口的AMCT(AMCT,Ascend Model Compression Toolkit)对原始网络模型进行压缩,并介绍了使用的压缩方法:量化(仅支持训练后量化)。

需要借助带NPU设备的训练环境(量化后输出的*.air格式模型只能借助带NPU设备的训练环境导出)。

搜索结果
找到“0”个结果

当前产品无相关内容

未找到相关内容,请尝试其他搜索词