接口简介
概述
为加速模型算力释放,CANN(Compute Architecture for Neural Networks)提供了算子加速库(Ascend Operator Library,简称AOL)。
该库提供了一系列丰富的深度优化、硬件亲和的高性能算子,如Neural Network、Digital Vision Pre-Processing算子等,为神经网络在昇腾硬件上加速计算奠定了基础。为方便开发者调用算子,提供了单算子API执行方式调用算子(基于C语言的API,无需提供IR(Intermediate Representation)定义),以便开发者快速且高效使能模型创新与应用,API的调用流程如图1所示。
此外,本文档还提供了不同深度学习框架IR(Intermediate Representation)定义的算子规格信息,支撑开发者自行构建网络模型。
接口说明
本文档提供的不同领域算子接口或算子规格清单如表1所示,其支持的产品型号参见表2。
算子接口章节重点阐述了接口定义、功能描述、参数说明、约束限制和调用示例等,指导开发者快速上手调用算子API。

- 对于各类算子接口或算子规格/清单中未审明支持的场景(如产品型号、数据类型、数据格式、数据维度等),不推荐开发者使用,当前版本不保证其调用效果。
- 调用算子接口过程中可能会遇到各类异常,可以参考“算子执行问题”,该章列举了典型/高频的算子执行问题,辅助开发者进行问题定位和解决。
接口分类 |
说明 |
备注 |
---|---|---|
调用NN算子、融合算子、DVPP算子API过程中依赖的公共Meta接口,如创建aclTensor、aclScalar、aclIntArray等。 |
- |
|
Neural Network算子,CANN内置的基础算子,接口前缀为aclnnXxx,主要覆盖TensorFlow、Pytorch、MindSpore、ONNX等框架中深度学习算法相关的计算类型,例如常见的Softmax、MatMul、Convolution等。 目前该类算子API在整个算子库中占最大比重。 |
本质是一套基于C语言的API,可直接调用API执行算子,无需提供额外的IR定义。该调用方式被称为单算子API执行调用,详细介绍参见“单算子调用流程”。
|
|
CANN内置的融合算子,接口前缀为aclnnXxx,由多个独立的基础“小算子”(如向量Vector、矩阵Cube等)融合而成,大算子功能与多个小算子功能等价,且大算子性能收益往往优于小算子。例如常见的Flash Attention、通算融合算子(简称MC2算子)等。
说明:
除了本文档提供的融合算子,您还可以单击Link访问Gitee cann-ops-adv仓获取代码开放的融合算子。 当前融合算子不支持使用昇腾虚拟化实例。 |
||
Digital Vision Pre-Processing算子,接口前缀为acldvppXxx,提供高性能视频/图片编解码、图像裁剪缩放等预处理API。 |
||
罗列了基于Ascend IR定义的算子信息。 |
- |
|
罗列了基于原生框架IR定义的算子信息(如TensorFlow、Caffe等)。 |
- |