下载
中文
注册
我要评分
文档获取效率
文档正确性
内容完整性
文档易理解
在线提单
论坛求助
昇腾小AI

算子包部署

简介

算子部署指将算子编译生成的自定义算子安装包(*.run)部署到CANN算子库中。

推理场景下,自定义算子直接部署到开发环境的CANN算子库。

训练场景下,自定义算子安装包需要部署到运行环境的CANN算子库中。

编译生成算子包的操作系统版本与架构需要与执行算子包部署操作的操作系统版本与架构相同。

MindStudio环境

基于MindStudio进行算子开发的算子包部署操作请参见MindStudio 用户指南中的“算子开发 > 算子部署”章节。

命令行环境

  1. 训练场景下,您需要将算子工程编译生成的自定义算子包custom_opp_<target os>_<target architecture>.run以运行用户拷贝到运行环境任一路径,然后参照如下步骤部署自定义算子安装包,如果您的开发环境即为运行环境,此操作可跳过。
  2. 在自定义算子安装包所在路径下,执行如下命令,安装自定义算子包。

    ./custom_opp_<target os>_<target architecture>.run

    • 安装成功后,会将编译生成的自定义算子相关文件部署到opp/vendors/<vendor_name>目录下,其中<vendor_name>为算子工程编译时build.sh脚本中字段“vendor_name”的取值,默认为“customize”。
    • 若算子库中已存在相同“vendor_name”的自定义算子,会出现类似如下提示信息(以更新framework为例):
      [ops_custom]upgrade framework
      caffe onnx tensorflow [INFO]: has old version in /usr/local/Ascend/latest/opp_x86_64-linux/vendors/customize/framework:
      - Overlay Installation , please enter:[o]
      - Replace directory installation , please enter: [r]
      - Do not install , please enter:[n]
      • 输入“o”,代表覆盖安装,即若安装包中文件与已存在文件名称相同,使用安装包中文件替换原文件;若安装包中不包含已存在文件,则已存在文件保留。
      • 输入“r”,代表全新安装,即删除安装路径下的所有文件,然后使用安装包全新安装。
      • 输入“n”,代表退出安装。

      说明:后续若存在“op proto”、“op impl”、“custom.proto”等文件的安装模式选择,请分别根据提示信息输入相应的字符。

    部署后目录结构示例如下所示:

    ├── opp    //算子库目录
    │   ├── vendors    //自定义算子所在目录
    │       ├── config.ini     // 自定义算子优先级配置文件
    │       ├── vendor_name1   // 存储对应厂商部署的自定义算子,此名字为编译自定义算子安装包时配置的vendor_name,若未配置,默认值为customize
    │           ├── op_impl
    │               ├── ai_core    // TBE自定义算子实现文件及算子信息库所在目录
    │                   ├── tbe      
    │                       ├── config
    │                           ├── ${soc_version}     //昇腾AI处理器类型
    │                               ├── aic-${soc_version}-ops-info.json     //TBE自定义算子信息库文件
    │                       ├── impl               //TBE自定义算子实现代码文件
    │                           ├── xx.py
    │               ├── cpu          //AI CPU自定义算子实现库及算子信息库所在目录
    │                   ├── aicpu_kernel
    │                       ├── impl
    │                           ├── libcust_aicpu_kernels.so    //AI CPU自定义算子实现库文件
    │                   ├── config   
    │                       ├── cust_aicpu_kernel.json          //AI CPU自定义算子信息库文件
    │               ├── vector_core   //此目录预留,无需关注
    │           ├── framework
    │               ├── caffe       //存放Caffe框架的自定义算子插件库
    │                   ├── libcust_caffe_parsers.so      //算子插件库文件,包含了自定义算子的插件解析函数
    │                   ├── custom.proto  //自定义算子的原始定义,算子编译过程中会读取此文件自动解析算子原始定义
    │               ├── onnx       //存放ONNX框架的自定义算子插件库
    │                   ├── libcust_onnx_parsers.so      //算子插件库文件,包含了自定义算子的插件解析函数
    │               ├── tensorflow         //存放TensorFlow框架的自定义算子插件库及npu对相关自定义算子支持度的配置文件
    │                   ├── libcust_tf_parsers.so         //算子插件库文件
    │                   ├── libcust_tf_scope_fusion.so    //scope融合规则定义库文件
    │                   ├── npu_supported_ops.json   //Ascend 910场景下使用的文件
    │           ├── op_proto        //自定义算子原型库所在目录
    │               ├── libcust_op_proto.so   
    │       ├── vendor_name2   // 存储厂商vendor_name2部署的自定义算子

    注:其他目录与文件,开发者无需关注。

  3. 配置自定义算子优先级。

    当“opp/vendors”目录下存在多个厂商的自定义算子时,您可通过配置“opp/vendors”目录下的“config.ini”文件,配置自定义算子的优先级,若不同的“vendor_name”目录下存在相同OpType的自定义算子,则以优先级高的“vendor_name”目录下的算子为准。

    “config.ini”文件的配置示例如下:

    load_priority=vendor_name1,vendor_name2,vendor_name3
    • “load_priority”:优先级配置序列的关键字,不允许修改。
    • vendor_name1,vendor_name2,vendor_name3”:自定义算子厂商的优先级序列,按照优先级从高到低的顺序进行排列。
搜索结果
找到“0”个结果

当前产品无相关内容

未找到相关内容,请尝试其他搜索词