下载
中文
注册
我要评分
文档获取效率
文档正确性
内容完整性
文档易理解
在线提单
论坛求助
昇腾小AI

--op_select_implmode

功能说明

昇腾AI处理器部分内置算子有高精度和高性能实现方式,用户可以通过该参数配置模型编译时算子选择哪种实现方式。

高精度是指在float16输入场景,通过泰勒展开/牛顿迭代等手段进一步提升算子的精度;高性能是指在float16输入的情况下,不影响网络精度前提的最优性能实现。

关联参数

无。

参数取值

参数值:

  • high_precision:表示算子采用高精度实现模式。

    该选项采用系统内置的配置文件设置算子实现模式,内置配置文件路径为${INSTALL_DIR}/opp/built-in/op_impl/ai_core/tbe/impl_mode/high_precision.ini。

    为保持兼容,该参数仅对high_precision.ini文件中算子列表生效,通过该列表可以控制算子生效的范围并保证之前版本的网络模型不受影响。

  • high_performance:表示算子采用高性能实现模式。

    该选项采用系统内置的配置文件设置算子实现模式,内置配置文件路径为${INSTALL_DIR}/opp/built-in/op_impl/ai_core/tbe/impl_mode/high_performance.ini。

    为保持兼容,该参数仅对high_performance.ini文件中算子列表生效,通过该列表可以控制算子生效的范围并保证之前版本的网络模型不受影响。

  • high_precision_for_all:表示算子采用高精度实现模式。

    该选项采用系统内置的配置文件设置算子实现模式,内置配置文件路径为${INSTALL_DIR}/opp/built-in/op_impl/ai_core/tbe/impl_mode/high_precision_for_all.ini,该文件中列表后续可能会跟随版本更新。

    该实现模式不保证兼容,如果后续新的软件包中有算子新增了实现模式(即配置文件中新增了某个算子的实现模式),之前版本使用high_precision_for_all的网络模型,在新版本上性能可能会下降。

  • high_performance_for_all:表示算子采用高性能实现模式。

    该选项采用系统内置的配置文件设置算子实现模式,内置配置文件路径为${INSTALL_DIR}/opp/built-in/op_impl/ai_core/tbe/impl_mode/high_performance_for_all.ini,该文件中列表后续可能会跟随版本更新。

    该实现模式不保证兼容,如果后续新的软件包中有算子新增了实现模式(即配置文件中新增了某个算子的实现模式),之前版本使用high_performance_for_all的网络模型,在新版本上精度可能会下降。

上述实现模式,根据算子的dtype进行区分。${INSTALL_DIR}请替换为CANN软件安装后文件存储路径。例如,若安装的Ascend-cann-toolkit软件包,则安装后文件存储路径为:$HOME/Ascend/ascend-toolkit/latest。

参数默认值:high_performance

推荐配置及收益

不建议用户使用--op_select_implmode参数设置算子的实现模式,该参数仅作为调测使用,推荐通过--op_precision_mode参数加载ini配置文件方式设置算子精度模式:

  • 如果用户对性能有更高要求,则建议优先使用high_performance_for_all参数,若经过验证性能满足要求,则建议用户复制一份high_performance_for_all.ini文件,并且重命名为“网络模型.ini”文件,跟随网络使用,不同网络模型使用不同的ini文件,后续模型转换时,可以直接使用--op_precision_mode参数加载保存的“网络模型.ini”配置文件。
  • 如果用户对精度有更高要求,则建议优先使用high_precision_for_all参数,若经过验证精度满足要求,则建议用户复制一份high_precision_for_all.ini文件,并且重命名为“网络模型.ini”文件,跟随网络使用,不同网络模型使用不同的ini文件,后续模型转换时,可以直接使用--op_precision_mode参数加载保存的“网络模型.ini”配置文件。
  • 如果用户在使用high_performance_for_all时,虽然性能得到很大的提升,但是发现精度不满足要求,发现是由于xxx算子使用了高性能模式引起的,则需要复制一份high_performance_for_all.ini文件,重命名为"网络模型.ini"文件,并将文件中该xxx算子的实现模式调整为高精度模式,后续模型转换时,直接使用--op_precision_mode参数加载“网络模型.ini”配置文件。
  • 如果用户在使用high_precision_for_all时,虽然精度得到很大的提升,但是发现性能下降较厉害,发现是由于xxx算子使用了高精度模式引起的,则需要复制一份high_precision_for_all.ini文件,重命名为"网络模型.ini"文件,并将文件中该xxx算子的实现模式调整为高性能模式,后续模型转换时,直接使用--op_precision_mode参数加载“网络模型.ini”配置文件。

high_*.ini文件中算子的实现模式以all_ops_impl_mode.ini文件(路径为${INSTALL_DIR}/opp/built-in/op_impl/ai_core/tbe/impl_mode)所列出的为准,不在该文件中的实现模式不支持配置。

上述路径中的${INSTALL_DIR}请替换为CANN软件安装后文件存储路径。例如,若安装的Ascend-cann-toolkit软件包,则安装后文件存储路径为:$HOME/Ascend/ascend-toolkit/latest。

示例

--op_select_implmode=high_precision

支持的型号

Atlas 200/300/500 推理产品

Atlas 推理系列产品

Atlas 训练系列产品

Atlas 200I/500 A2推理产品

Atlas A2训练系列产品/Atlas 800I A2推理产品

使用约束

  • 如果有新支持精度模式的算子也选择高性能或者高精度模式,又不想破坏已有网络的精度或性能,则可以通过如下两种方式进行配置:
    • 通过--optypelist_for_implmode参数指定新增的具体算子
      --op_select_implmode=high_precision  --optypelist_for_implmode=算子optype
    • 通过--op_precision_mode参数设置算子的精度模式

      构造算子精度模式配置文件op_precision.ini,并在该文件中设置算子的精度模式,每一行设置一个算子的精度模式,样例如下:

      optype1=high_precision
      optype2=high_performance

      将配置好的op_precision.ini文件上传到ATC工具所在服务器任意目录,例如上传到$HOME/conf,使用示例如下:

      --op_precision_mode=$HOME/conf/op_precision.ini
  • --op_select_implmode参数表示设置网络模型中所有算子的高精度或高性能模式,如果算子实现了高精度和高性能,则运行时选择--op_select_implmode参数指定的模式;如果算子只实现了一种,则按照算子实现的方式运行,例如:

    某个算子当前只支持高精度,而--op_select_implmode设置为高性能,则--op_select_implmode参数对于该算子不生效,使用该算子当前实现的高精度方式运行。

搜索结果
找到“0”个结果

当前产品无相关内容

未找到相关内容,请尝试其他搜索词