比对操作和分析

说明

前提条件

请确保完成使用前准备

操作步骤

本节以非量化昇腾AI处理器运行生成的dump数据与非量化Caffe模型npy数据比对为例进行介绍,下文中参数说明均以该示例介绍,请根据您的实际情况进行替换。

  1. 登录CANN工具安装环境。
  2. 进入/home/HwHiAiUser/Ascend/ascend-toolkit/latest/tools/operator_cmp/compare目录。
  3. 执行比对命令。

    由于dump和npy比对数据文件是由多个文件组成,故下文操作步骤中-m-g参数须指定数据文件所在的父目录。如:/home/HwHiAiUser/MyApp_mind/resnet50,其中resnet50文件夹下直接保存比对数据文件。

    目录结构示例如下:

    root@xxx:/home/HwHiAiUser/MyApp_mind/resnet50# tree
    .
    ├── BatchMatMul.bert_encoder_layer_0_attention_self_MatMul_1.24.1614717261785536
    ├── BatchMatMul.bert_encoder_layer_0_attention_self_MatMul.21.1614717261768864
    ├── BatchMatMul.bert_encoder_layer_10_attention_self_MatMul_1.235.1614717263664916
    #仅为示例,此处省略剩余文件名。

    python3 msaccucmp.py compare -m /home/HwHiAiUser/MyApp/npu_dump/20230216155330/0/resnet50/1/0/ -g /home/HwHiAiUser/MyApp/onnx_dump/ -f /home/HwHiAiUser/module/out/onnx_resnet50.json -out /home/HwHiAiUser/result -advisor

    需要安装pandas 1.3或更高版本依赖,否则无法执行-advisor参数输出专家建议。

    表1 整网比对命令行参数说明

    参数名

    参数说明

    是否必选

    -m

    --my_dump_path

    基于昇腾AI处理器运行生成的数据文件所在目录。

    -g

    --golden_dump_path

    基于GPU/CPU运行生成的原始网络数据文件所在目录。

    -f

    --fusion_rule_file

    全网层信息文件。

    通过ATC转换.om模型文件生成的.json文件,文件包含整网算子的映射关系,用于精度比对时算子匹配。

    -out

    --output

    比对数据结果存放路径,默认为当前路径。

    -advisor

    在Tensor比对结束后,针对比对结果进行数据分析,给出专家建议。详情请参见比对结果专家建议

    比对结果如图1所示。

    图1 比对结果示

    以上比对结果字段解释请参见完整比对结果参数说明

    若已知可能出现精度问题的范围或因大型网络模型输出结果文件数据量过大,可以通过配置参数来减少输出结果的数据量,更多参数详细介绍请参见命令格式说明

  4. 比对结果分析。

    请参见比对结果分析