算子部署(本地)
- 在MindStudio工程界面菜单栏依次选择 ,弹出算子部署界面。
- 在弹出的界面中选择“Operator Deploy Locally”,在“Operator Package”中选择指定的算子库OPP包目录并单击“Operator deploy”按钮。
在下方Output页签出现如下信息,代表自定义算子部署成功。
自定义算子包安装成功后,会将自定义算子部署在Ascend-cann-toolkit安装目录/ascend-toolkit/latest/opp目录下或指定的算子库OPP目录下的对应文件夹中。
目录结构示例如下所示:
├── opp //算子库目录 │ ├── op_impl │ ├── built-in │ ├── custom │ ├── ai_core │ ├── cpu │ ├── aicpu_kernel/ │ ├── custom_impl //自定义算子实现代码文件 │ ├── libcust_aicpu_kernels.so │ ├── config │ ├── cust_aicpu_kernel.json //自定义算子信息库文件 │ ├── vector_core //此目录预留,无需关注 │ ├── framework │ ├── built-in │ ├── custom │ ├── caffe │ ├── tensorflow //存放tensorflow框架的自定义算子插件库 │ ├── libcust_tf_parsers.so │ ├── npu_supported_ops.json //Ascend 910场景下使用的文件,Ascend 310场景下无需关注 │ ├── op_proto │ ├── built-in │ ├── custom │ ├── libcust_op_proto.so //自定义算子原型库文件
父主题: AI CPU算子开发