下载
中文
注册

接口简介

概述

为加速模型算力释放,CANN(Compute Architecture for Neural Networks)提供了算子加速库(Ascend Operator Library,简称AOL)。

该库提供了一系列丰富的深度优化、硬件亲和的高性能算子,如Neural Network、Digital Vision Pre-Processing算子等,为神经网络在昇腾硬件上加速计算奠定了基础。为方便开发者调用算子,提供了单算子API执行方式调用算子(基于C语言的API,无需提供IR(Intermediate Representation)定义),以便开发者高效使能模型创新与应用,API的调用流程如图1所示。

此外,本文档还提供了不同深度学习框架IR(Intermediate Representation)定义的算子规格信息,支撑开发者自行构建网络模型。

本文档提供的CANN算子均为系统支持的算子,对于系统不支持的算子,支持开发者自定义,自定算子开发指导请参见Ascend C算子开发指南

图1 API调用流程

接口说明

本文档提供的不同领域算子接口或算子规格清单如表1所示,其在不同产品型号的支持情况参见表2

算子接口章节重点阐述了接口定义、功能描述、参数说明、约束限制和调用示例等,指导开发者快速上手调用算子API。

  • 对于各类算子接口或算子规格/清单中未审明支持的场景(如产品型号、数据类型、数据格式、数据维度等),不推荐开发者使用,当前版本不保证其调用效果。
  • 调用算子接口过程中可能会遇到各类异常,可以参考故障处理中“故障案例集 > 算子执行问题”,该章提供了典型/高频的算子执行问题,辅助开发者进行问题定位和解决。
表1 AOL列表

接口分类

说明

备注

基础接口

调用NN算子、融合算子、DVPP算子API过程中依赖的公共Meta接口,如创建aclTensor、aclScalar、aclIntArray等。

-

NN算子接口

Neural Network算子,CANN内置的基础算子,接口前缀为aclnnXxx,主要覆盖TensorFlow、Pytorch、MindSpore、ONNX等框架中深度学习算法相关的计算类型,例如常见的Softmax、MatMul、Convolution等。

目前该类算子API在整个算子库中占最大比重。

本质是一套基于C语言的API,可直接调用API执行算子,无需提供额外的IR定义。该调用方式被称为单算子API执行调用,更多详细介绍参见CANN AscendCL应用软件开发指南(C&C++)中“单算子调用”章节。

  • 调用NN、融合算子接口时,会直接调用算子二进制包(Ascend-cann-kernels)中已经编译好的算子,无需再编译算子。算子二进制包的安装请参见《CANN 软件安装指南》
  • 调用DVPP算子接口时,无需再编译算子

融合算子接口

CANN内置的融合算子,接口前缀为aclnnXxx,由多个独立的基础“小算子”(如向量Vector、矩阵Cube等)融合成“大算子”,多个小算子功能与大算子功能等价,而大算子在性能或内存收益优于小算子。例如常见的Flash Attention、通算融合算子(简称MC2算子)等。

说明:

除了本文档提供的融合算子,您还可以单击Link访问Gitee cann-ops-adv仓获取代码开放的融合算子。

当前融合算子不支持使用昇腾虚拟化实例。

DVPP算子接口

Digital Vision Pre-Processing算子,接口前缀为acldvppXxx,提供高性能视频/图片编解码、图像裁剪缩放等预处理API。

CANN算子规格说明

罗列了基于Ascend IR定义的算子信息。

-

AI框架算子支持清单

罗列了基于原生框架IR定义的算子信息(如TensorFlow、Caffe等)。

-

表2 产品支持度表

产品型号

NN算子接口

融合算子接口

DVPP算子接口

CANN算子规格说明

TensorFlow算子清单

Caffe算子清单

ONNX算子清单

Atlas 200/300/500 推理产品

x

x

x

Atlas 200I/500 A2 推理产品

√(部分支持)

x

x

Atlas 训练系列产品

√(部分支持)

x

x

Atlas A2 训练系列产品/Atlas 800I A2 推理产品

√(部分支持)

x

Atlas 推理系列产品

√(部分支持)

√(部分支持)

x