文档
注册
评分
提单
论坛
小AI

算子部署(本地)

  • 执行ST测试操作时,会自动编译生成自定义算子安装包并将其部署到开发环境的opp目录下,若用户已参见ST测试进行了算子的ST测试,则此步骤可跳过;若需要单独部署自定义算子安装包,可参见此章节进行部署。
  • 进行算子部署前,需要参见算子工程编译生成自定义算子安装包custom_opp_Linux_Arch.run
  • Windows操作系统不支持算子本地部署。
  1. 在MindStudio工程界面菜单栏依次选择Ascend > Operator Deployment,弹出算子部署界面。
  2. 在弹出的界面中选择“Operator Deploy Locally”,在“Operator Package”中选择指定的算子库OPP包目录并单击“Operator deploy”

    在下方Output页签出现如下信息,代表自定义算子部署成功。

    自定义算子包安装成功后,会将自定义算子部署在Ascend-cann-toolkit安装目录/ascend-toolkit/latest/opp目录下或指定的算子库OPP目录下的对应文件夹中。

    目录结构示例如下所示:

    ├── opp      //算子库目录
    │   ├── op_impl
    │       ├── built-in        
    │       ├── custom
    │           ├── ai_core
    │               ├── tbe
    │                   ├── config
    │                       ├── soc_version     //昇腾AI处理器版本
    │                           ├── aic-soc_version-ops-info.json     //自定义算子信息库文件
    │                   ├── custom_impl               //自定义算子实现代码文件
    │                       ├── add.py
    │           ├── vector_core   //此目录预留,无需关注
    │   ├── framework
    │       ├── built-in
    │       ├── custom
    │           ├── caffe      
    │           ├── tensorflow          //存放tensorflow框架的自定义算子插件库
    │               ├── libcust_tf_parsers.so
    │               ├── npu_supported_ops.json   //Ascend 910场景下使用的文件,Ascend 310场景下无需关注
    │   ├── op_proto
    │       ├── built-in
    │       ├── custom
    │           ├── libcust_op_proto.so    //自定义算子原型库文件
搜索结果
找到“0”个结果

当前产品无相关内容

未找到相关内容,请尝试其他搜索词