概览
手册 |
介绍 |
---|---|
介绍如何通过AMCT(AMCT,Ascend Model Compression Toolkit)对Caffe框架的原始网络模型进行压缩,并介绍了使用的压缩方法:量化、张量分解等。 需要搭建Caffe环境。 |
|
介绍如何通过AMCT(AMCT,Ascend Model Compression Toolkit)对TensorFlow框架的原始网络模型进行压缩,并介绍了使用的压缩方法:量化、稀疏、近似校准、张量分解等。 需要搭建TensorFlow环境。 |
|
介绍如何通过AMCT(AMCT,Ascend Model Compression Toolkit)对PyTorch框架的原始网络模型进行压缩,并介绍了使用的压缩方法:量化、稀疏、张量分解等。 需要搭建PyTorch环境。 |
|
介绍如何使用AMCT(AMCT,Ascend Model Compression Toolkit)对ONNX网络模型进行压缩,并介绍了使用的压缩方法量化:量化(仅支持训练后量化)。 需要搭建ONNX Runtime环境。 |
|
介绍如何基于安装了TF_Adapter TensorFlow框架的AMCT(AMCT,Ascend Model Compression Toolkit)对TensorFlow框架的网络模型进行压缩,并介绍了使用的压缩方法:量化(仅支持训练后量化)。 需要搭建TensorFlow环境,并借助带有NPU设备的在线推理环境。 |
|
介绍如何通过AMCT(AMCT,Ascend Model Compression Toolkit)对MindSpore框架的原始网络模型进行压缩,并介绍了使用的压缩方法:量化(训练后量化和量化感知训练)。 需要搭建MindSpore环境,并借助带NPU设备的训练环境(量化后输出的*.air格式模型只能借助带NPU设备的训练环境导出)。 |
|
介绍如何使用基于AscendCL接口的AMCT(AMCT,Ascend Model Compression Toolkit)对原始网络模型进行压缩,并介绍了使用的压缩方法:量化(仅支持训练后量化)。 只需要借助带NPU设备的训练环境(量化后输出的*.air格式模型只能借助带NPU设备的训练环境导出)。 |