下载
中文
注册
HRNet-PyTorch

概述

简述

HRNet,是一个用于图像分类的高分辨网络。通过并行连接高分辨率到低分辨率卷积来保持高分辨率表示,并通过重复跨并行卷积执行多尺度融合来增强高分辨率表示。在像素级分类、区域级分类和图像级分类中,证明了这些方法的有效性。其创新点在于能够从头到尾保持高分辨率,而不同分支的信息交互是为了补充通道数减少带来的信息损耗,这种网络架构设计对于位置敏感的任务会有奇效。

  • 参考实现:

    url=https://github.com/HRNet/HRNet-Image-Classification
    commit_id=f760c988482cdb8a1f69b10b219d669721144582
  • 适配昇腾 AI 处理器的实现:

    url=https://gitee.com/ascend/ModelZoo-PyTorch.git
    code_path=PyTorch/contrib/cv/classification

准备训练环境

准备环境

  • 当前模型支持的 PyTorch 版本和已知三方库依赖如下表所示。

    表 1 版本支持表

    Torch_Version 三方库依赖版本
    PyTorch 1.5 -
    PyTorch 1.8 -
    PyTorch 1.11 -
    PyTorch 2.1 -
  • 环境准备指导。

    请参考《Pytorch框架训练环境准备》。

  • 安装依赖。

    pip install -r requirements.txt

准备数据集

  1. 获取数据集。

    用户自行获取原始数据集,可选用的开源数据集包括ImageNet2012,将数据集上传到服务器任意路径下并解压。 数据集目录结构如下所示:

    ├── ImageNet2012
          ├──train
               ├──类别1
                     │──图片1
                     │──图片2
                     │   ...
               ├──类别2
                     │──图片1
                     │──图片2
                     │   ...
               ├──...
          ├──val
               ├──类别1
                     │──图片1
                     │──图片2
                     │   ...
               ├──类别2
                     │──图片1
                     │──图片2
                     │   ...

    说明: 该数据集的训练过程脚本只作为一种参考示例。

开始训练

训练模型

  1. 进入解压后的源码包根目录。

    cd /${模型文件夹名称}
  2. 运行训练脚本。

    该模型支持单机单卡训练和单机8卡训练。

    • 单机单卡训练

      启动单卡训练

      bash ./test/train_full_1p.sh --data_path=/data/xxx/  # 单卡精度
      bash ./test/train_performance_1p.sh --data_path=/data/xxx/  # 单卡性能
    • 单机8卡训练

      启动8卡训练。

      bash ./test/train_full_8p.sh --data_path=/data/xxx/  # 8卡精度
      bash ./test/train_performance_8p.sh --data_path=/data/xxx/  # 8卡性能
    • 单机单卡评测

      启动单卡评测。

      bash ./test/train_eval_1p.sh --data_path=xxx --device_id=xxx  # 单卡评测

    --data_path参数填写数据集路径,需写到数据集的一级目录。

    --device_id参数填写使用哪个设备。

    --hf32开启HF32模式,不与FP32模式同时开启

    --fp32开启FP32模式,不与HF32模式同时开启

    脚本中resume默认关闭,若要开启请在yaml配置文件中修改RESUME的值为true.

    模型训练脚本参数说明如下。

    公共参数:
    data_path                           //数据集路径
    --cfg                               // 模型配置文件
    --addr                              // master节点 地址
    --nproc                             // 启动节点数量
    --lr                                // 学习率
    --workers                           // 加载数据进程数
    --train_epochs                      // 重复训练次数
    --bs                                // 训练批次大小
    --device_id                         // 指定设备号
    --stop_step                         // 跑性能最大执行步数
    --dn                                // 当前节点排名

    训练完成后,权重文件保存在当前路径下,并输出模型训练精度和性能信息。

训练结果展示

表 2 训练结果展示表

NAME Acc@1 FPS Epochs AMP_Type Torch_Version
1p-竞品V - - 1 - 1.5
8p-竞品V - - 100 - 1.5
1p-NPU - 84.1 1 O2 1.8
8p-NPU 76.65 533.2 100 O2 1.8

版本说明

变更

2022.07.08:首次发布。

已知问题

无。

HRNet模型-推理指导

概述

HRNet(High-Resolution Net)是针对2D人体姿态估计(Human Pose Estimation或Keypoint Detection)任务提出的,并且该网络主要是针对单一个体的姿态评估(即输入网络的图像中应该只有一个人体目标)。

  • 参考实现:

    url=https://github.com/HRNet/HRNet-Image-Classification
    commit_id=f130a24bf09b7f23ebd0075271f76c4a188093b2
    code_path=https://gitee.com/ascend/ModelZoo-PyTorch/tree/master/ACL_PyTorch/contrib/cv/classfication/HRNet-Image-Classification
    model_name=HRNet

输入输出数据

  • 输入数据

    输入数据 数据类型 大小 数据排布格式
    input RGB_FP32 batchsize x 3 x 224 x 224 NCHW
  • 输出数据

    输出数据 数据类型 大小 数据排布格式
    output1 FLOAT32 batchsize x 1000 ND

推理环境准备

  • 该模型需要以下插件与驱动

    表 1 版本配套表

    配套 版本 环境准备指导
    固件与驱动 22.0.3 Pytorch框架推理环境准备
    CANN 6.0.RC1 -
    Python 3.7.5 -
    PyTorch 1.11.0 -
    说明:Atlas 300I Duo 推理卡请以CANN版本选择实际固件与驱动版本。 \ \

快速上手

获取源码

  1. 获取源码。

    git clone https://github.com/HRNet/HRNet-Image-Classification.git
  2. 安装依赖。

    pip3 install -r requirement_for_infer.txt

准备数据集

  1. 获取原始数据集。(解压命令参考tar –xvf *.tar与 unzip *.zip)

    该模型使用ImageNet官网的5万张验证集进行测试,图片与标签分别存放在/local/HRNet/imagenet/val与/local/HRNet/imagenet/val_label.txt。

    imagenet
    ├── val_label.txt    //验证集标注信息       
    └── val             // 验证集文件夹
  2. 数据预处理,将原始数据集转换为模型输入的数据。

    执行imagenet_torch_preprocess.py脚本,完成预处理。

    python3 imagenet_torch_preprocess.py hrnet  /local/HRNet/imagenet/val ./prep_dataset
    
    • 参数说明:

      /local/HRNet/imagenet/val,原始数据验证集(.jpeg)所在路径。

      ./prep_dataset,输出的二进制文件(.bin)所在路径。

模型推理

  1. 模型转换。

    使用PyTorch将模型权重文件.pth转换为.onnx文件,再使用ATC工具将.onnx文件转为离线推理模型文件.om文件。

    1. 获取权重文件。

      使用在线推理完成后的权重文件

    2. 导出onnx文件。

      1. 使用hrnet_pth2onnx.py脚本。

        运行hrnet_pth2onnx.py脚本。

        python3 hrnet_pth2onnx.py --cfg ./HRNet-Image-Classification/experiments/cls_hrnet_w18_sgd_lr5e-2_wd1e-4_bs32_x100.yaml --input model_best.pth.tar --output hrnet_w18.onnx

        获得hrnet_w18.onnx文件。

    3. 使用ATC工具将ONNX模型转OM模型。

      1. 配置环境变量。

         source /usr/local/Ascend/ascend-toolkit/set_env.sh
      2. 执行命令查看芯片名称(${chip_name})。

        npu-smi info
        #该设备芯片名为Ascend 910A (自行替换)
        回显如下:
        +-------------------+-----------------+------------------------------------------------------+
        | NPU     Name      | Health          | Power(W)     Temp(C)           Hugepages-Usage(page) |
        | Chip    Device    | Bus-Id          | AICore(%)    Memory-Usage(MB)                        |
        +===================+=================+======================================================+
        | 0       910A     | OK              | 15.8         42                0    / 0              |
        | 0       0         | 0000:82:00.0    | 0            1074 / 21534                            |
        +===================+=================+======================================================+
        | 1       910A     | OK              | 15.4         43                0    / 0              |
        | 0       1         | 0000:89:00.0    | 0            1070 / 21534                            |
        +===================+=================+======================================================+
      3. 执行ATC命令。

        atc --framework=5 --model=./hrnet_w18.onnx --input_format=NCHW --input_shape="image:{batch size},3,224,224" --output=hrnet_bs{batch size} --log=debug --soc_version=Ascend910A
        示例
        atc --framework=5 --model=./hrnet_w18.onnx --input_format=NCHW --input_shape="image:1,3,224,224" --output=hrnet_bs1 --log=debug --soc_version=Ascend910A
        • 参数说明:

          • --model:为ONNX模型文件。
          • --framework:5代表ONNX模型。
          • --output:输出的OM模型。
          • --input_format:输入数据的格式。
          • --input_shape:输入数据的shape。
          • --log:日志级别。
          • --soc_version:处理器型号。

          运行成功后生成hrnet_bs1.om模型文件,batch size为1、4、8、32、64的修改对应的batch size的位置即可。

  2. 开始推理验证。

    1. 安装ais_bench推理工具。

      请访问ais_bench推理工具代码仓,根据readme文档进行工具安装。

    2. 执行推理。

      python3 -m ais_bench --model ./hrnet_bs{batch size}.om --input ./prep_dataset/ --output ./output --output_dirname subdir --outfmt 'TXT' --batchsize {batch size}
      示例
      python3 -m ais_bench --model ./hrnet_bs1.om --input ./prep_dataset/ --output ./output --output_dirname subdir --outfmt 'TXT' --batchsize 1
      • 参数说明:

        • model:需要推理om模型的路径。
        • input:模型需要的输入bin文件夹路径。
        • output:推理结果输出路径。
        • outfmt:输出数据的格式。
        • output_dirname:推理结果输出子文件夹。

      推理后的输出默认在当前目录output的subdir下。

    3. 精度验证。

      调用imagenet_acc_eval.py脚本推理结果与label比对,可以获得Accuracy Top5数据,结果保存在result.json中。

      python3.7 imagenet_acc_eval.py ./output/subdir /local/HRNet/imagenet/val_label.txt ./ result.json
      • 参数说明:

        • ./output/subdir/:为生成推理结果所在路径

        • /local/HRNet/imagenet/val_label.txt:为标签数据所在路径

        • ./ result.json:结果保存路径

    4. 性能验证。

    可使用ais_bench推理工具的纯推理模式验证不同batch_size的om模型的性能,参考命令如下:

    ```
    python3 -m ais_bench --model=./hrnet_bs{batch size}.om --loop=1000 --batchsize={batch size}
    示例
    python3 -m ais_bench --model=./hrnet_bs1.om --loop=1000 --batchsize=1
    ```
    • 参数说明:
      • --model:需要验证om模型所在路径
      • --batchsize:验证模型的batch size,按实际进行修改

模型推理性能&精度

调用ACL接口推理计算,性能参考下列数据。

芯片型号 Batch Size 数据集 精度
910A 1 ImageNet 76.02/Top1 91.72/Top5

公网地址说明

代码涉及公网地址参考 public_address_statement.md

使用模型资源和服务前,请您仔细阅读并理解透彻 《昇腾深度学习模型许可协议 3.0》