下载
中文
注册
我要评分
文档获取效率
文档正确性
内容完整性
文档易理解
在线提单
论坛求助
昇腾小AI

基于重要性评估的剪枝调优

ModelSlim工具提供了基于重要性评估的模型剪枝调优API,用户只需要提供模型实例,即可调用剪枝API完成模型的剪枝。剪枝后的模型提升了一定的性能,减少了模型的大小,提升推理过程中的效率。

目前支持PyTorch框架下的模型剪枝调优,执行剪枝调优前需参考环境准备完成开发环境部署、Python环境变量、PyTorch框架及训练服务器环境变量配置。

操作步骤

  1. 用户自行准备待剪枝模型实例以及训练脚本。本样例以torchvision中的vgg16为例。
  2. 打开待剪枝模型的训练脚本vision/references/classification/train.py。编辑train.py文件,导入剪枝接口。剪枝API接口说明请参考PruneTorch
    from modelslim.pytorch.prune.prune_torch import PruneTorch
  3. (可选)调整日志输出等级,启动调优任务后,将打屏显示剪枝调优的日志信息。
    from modelslim import set_logger_level
    set_logger_level("info")        #根据实际情况配置
  4. 在原脚本初始化网络,并已经加载权重后,使用PruneTorch接口自定义配置剪枝的重要性评估函数、算子节点保留的参数比例、剪枝率等。
    desc = PruneTorch(model, torch.ones([1, 3, 224, 224]).type(torch.float32)).prune(0.8)
  5. 启动模型剪枝调优任务。建议使用原始训练过程最终学习率,训练10epoch即可。
    python3 train.py --model vgg16 --lr 1e-5 --epochs 10 --pretrained --batch-size 256 -j 48

    将获取一个剪枝后的模型,可以进行后续的训练任务。

  6. 在后续的评估过程中,参考如下示例配置,加载4返回模型剪枝信息。
    PruneTorch(model, torch.ones([1, 3, 224, 224]).type(torch.float32)).prune_by_desc(desc)
搜索结果
找到“0”个结果

当前产品无相关内容

未找到相关内容,请尝试其他搜索词