概览
手册 |
介绍 |
---|---|
介绍如何通过AMCT(AMCT,Ascend Model Compression Toolkit)对Caffe框架的原始网络模型进行压缩,并介绍了使用的压缩方法:量化(训练后量化和量化感知训练)、张量分解。 |
|
介绍如何通过AMCT(AMCT,Ascend Model Compression Toolkit)对TensorFlow框架的原始网络模型进行压缩,并介绍了使用的压缩方法:量化(训练后量化和量化感知训练)、通道稀疏、组合压缩、近似校准、张量分解。 |
|
介绍如何通过AMCT(AMCT,Ascend Model Compression Toolkit)对PyTorch框架的原始网络模型进行压缩,并介绍了使用的压缩方法:量化(训练后量化和量化感知训练)、通道稀疏、组合压缩、张量分解。 |
|
介绍如何使用AMCT(AMCT,Ascend Model Compression Toolkit)对ONNX网络模型进行压缩,并介绍了使用的压缩方法:量化(仅支持训练后量化)。 |
|
介绍如何基于安装了TF_Adapter TensorFlow框架的AMCT(AMCT,Ascend Model Compression Toolkit)对TensorFlow框架的网络模型进行压缩,并介绍了使用的压缩方法:量化(仅支持训练后量化)。 需要借助带有NPU设备的在线推理环境。 |
|
介绍如何通过AMCT(AMCT,Ascend Model Compression Toolkit)对MindSpore框架的原始网络模型进行压缩,并介绍了使用的压缩方法:量化,训练后量化和量化感知训练。 需要带NPU设备的训练环境(量化后输出的*.air格式模型只能借助带NPU设备的训练环境导出)。 |
|
介绍如何使用基于AscendCL接口的AMCT(AMCT,Ascend Model Compression Toolkit)对原始网络模型进行压缩,并介绍了使用的压缩方法:量化(仅支持训练后量化)。 需要借助带NPU设备的训练环境(量化后输出的*.air格式模型只能借助带NPU设备的训练环境导出)。 |