算子部署(本地)
- 在MindStudio工程界面菜单栏依次选择 ,弹出算子部署界面。
- 在弹出的界面中选择“Operator Deploy Locally”,在“Operator Package”中选择指定的算子库OPP包目录并单击“Operator deploy”按钮。
在下方Output页签出现如下信息,代表自定义算子部署成功。
自定义算子包安装成功后,会将自定义算子部署在Ascend-cann-toolkit安装目录/ascend-toolkit/latest/opp目录下或指定的算子库OPP目录下的对应文件夹中。
目录结构示例如下所示:
├── opp //算子库目录 │ ├── vendors //自定义算子所在目录 │ ├── config.ini // 自定义算子优先级配置文件 │ ├── vendor_name1 // 存储对应厂商部署的自定义算子,此名字为编译自定义算子安装包时配置的vendor_name,若未配置,默认值为customize │ ├── op_impl │ ├── cpu //AI CPU算子实现文件及算子信息库所在目录 │ ├── aicpu_kernel/ │ ├── impl //AI CPU算子实现代码文件 │ ├── libcust_aicpu_kernels.so │ ├── config │ ├── cust_aicpu_kernel.json //AICPU算子信息库文件 │ ├── vector_core //此目录预留,无需关注 │ ├── framework │ ├── caffe //存放Caffe框架的自定义算子插件库 │ ├── libcust_caffe_parsers.so │ ├── custom.proto │ ├── onnx //存放ONNX框架的自定义算子插件库 │ ├── libcust_onnx_parsers.so │ ├── tensorflow //存放TensorFlow框架的自定义算子插件库及npu对相关自定义算子支持度的配置文件 │ ├── libcust_tf_parsers.so │ ├── libcust_tf_scope_fusion.so //scope融合规则定义库文件 │ ├── npu_supported_ops.json //Ascend 910场景下使用的文件 │ ├── op_proto //自定义算子原型库所在目录 │ ├── libcust_op_proto.so │ ├── vendor_name2 // 存储厂商vendor_name2部署的自定义算子
父主题: AI CPU算子开发