文档
注册

算子部署(本地)

  • 执行ST测试操作时,会自动编译生成自定义算子安装包并将其部署到开发环境的opp目录下,若用户已参见ST测试进行了算子的ST测试,则此步骤可跳过;若需要单独部署自定义算子安装包,可参见此章节进行部署。
  • 进行算子部署前,需要参见算子工程编译生成自定义算子安装包custom_opp_Linux_Arch.run
  • Windows操作系统不支持算子本地部署。
  1. 在MindStudio工程界面菜单栏依次选择Ascend > Operator Deployment,弹出算子部署界面。
  2. 在弹出的界面中选择“Operator Deploy Locally”,在“Operator Package”中选择指定的算子库OPP包目录并单击“Operator deploy”按钮。

    在下方Output页签出现如下信息,代表自定义算子部署成功。

    自定义算子包安装成功后,会将自定义算子部署在Ascend-cann-toolkit安装目录/ascend-toolkit/latest/opp目录下或指定的算子库OPP目录下的对应文件夹中。

    目录结构示例如下所示:

    ├── opp      //算子库目录
    │   ├── vendors    //自定义算子所在目录
    │       ├── config.ini     // 自定义算子优先级配置文件
    │       ├── vendor_name1   // 存储对应厂商部署的自定义算子,此名字为编译自定义算子安装包时配置的vendor_name,若未配置,默认值为customize
    │           ├── op_impl
    │               ├── cpu    //AI CPU算子实现文件及算子信息库所在目录
    │                   ├── aicpu_kernel/
    │                       ├── impl               //AI CPU算子实现代码文件
    │                           ├── libcust_aicpu_kernels.so
    │                   ├── config
    │                       ├── cust_aicpu_kernel.json     //AICPU算子信息库文件
    │               ├── vector_core   //此目录预留,无需关注
    │           ├── framework
    ├── caffe   //存放Caffe框架的自定义算子插件库
    │                   ├── libcust_caffe_parsers.so
    │                   ├── custom.proto
    │               ├── onnx          //存放ONNX框架的自定义算子插件库
    │                   ├── libcust_onnx_parsers.so         
    │               ├── tensorflow          //存放TensorFlow框架的自定义算子插件库及npu对相关自定义算子支持度的配置文件
    │                   ├── libcust_tf_parsers.so
    │                   ├── libcust_tf_scope_fusion.so    //scope融合规则定义库文件
    │                   ├── npu_supported_ops.json   //Ascend 910场景下使用的文件
    │           ├── op_proto    //自定义算子原型库所在目录
    │               ├── libcust_op_proto.so   
    │       ├── vendor_name2   // 存储厂商vendor_name2部署的自定义算子
搜索结果
找到“0”个结果

当前产品无相关内容

未找到相关内容,请尝试其他搜索词