下载
中文
注册
我要评分
文档获取效率
文档正确性
内容完整性
文档易理解
在线提单
论坛求助
昇腾小AI

算子部署(本地)

  • 执行ST测试操作时,会自动编译生成自定义算子安装包并将其部署到开发环境的opp目录下,若用户已参见ST测试进行了算子的ST测试,则此步骤可跳过;若需要单独部署自定义算子安装包,可参见此章节进行部署。
  • 进行算子部署前,需要参见算子工程编译生成自定义算子安装包custom_opp_Linux_Arch.run
  • Windows操作系统不支持算子本地部署。
  1. 在MindStudio工程界面菜单栏依次选择Ascend > Operator Deployment,弹出算子部署界面。
  2. 在弹出的界面中选择“Operator Deploy Locally”,在“Operator Package”中选择指定的算子库OPP包目录并单击“Operator deploy”

    在下方Output页签出现如下信息,代表自定义算子部署成功。

    自定义算子包安装成功后,会将自定义算子部署在Ascend-cann-toolkit安装目录/ascend-toolkit/latest/opp目录下或指定的算子库OPP目录下的对应文件夹中。

    目录结构示例如下所示:

    ├── opp      //算子库目录
    │   ├── vendors    //自定义算子所在目录
    │       ├── config.ini     // 自定义算子优先级配置文件
    │       ├── vendor_name1   // 存储对应厂商部署的自定义算子,此名字为编译自定义算子安装包时配置的vendor_name,若未配置,默认值为customize
    │           ├── op_impl            
    ├── ai_core    //TBE算子实现文件及算子信息库所在目录
    │                   ├── tbe
    │                       ├── config
    │                           ├── soc_version     //昇腾AI处理器版本
    │                               ├── aic-soc_version-ops-info.json     //TBE算子信息库文件
    │                       ├── impl               //TBE算子实现代码文件
    │                           ├── add.py
    │               ├── vector_core   //此目录预留,无需关注
    │           ├── framework
    ├── caffe   //存放Caffe框架的自定义算子插件库
    │                   ├── libcust_caffe_parsers.so
    │                   ├── custom.proto
    │               ├── onnx          //存放ONNX框架的自定义算子插件库
    │                   ├── libcust_onnx_parsers.so         
    │               ├── tensorflow          //存放TensorFlow框架的自定义算子插件库及npu对相关自定义算子支持度的配置文件
    │                   ├── libcust_tf_parsers.so
    │                   ├── libcust_tf_scope_fusion.so    //scope融合规则定义库文件
    │                   ├── npu_supported_ops.json   //Ascend 910场景下使用的文件
    │           ├── op_proto    //自定义算子原型库所在目录
    │               ├── libcust_op_proto.so   
    │       ├── vendor_name2   // 存储厂商vendor_name2部署的自定义算子
搜索结果
找到“0”个结果

当前产品无相关内容

未找到相关内容,请尝试其他搜索词