文档
注册

Gemm

函数功能

根据输入的切分规则,将给定的两个输入张量做矩阵乘,输出至结果张量。将A和B两个输入矩阵乘法在一起,得到一个输出矩阵C。

函数原型

  • 功能接口:
    template <typename dst_T, typename src0_T, typename src1_T> __aicore__ inline void Gemm(const LocalTensor<dst_T>& dstLocal, const LocalTensor<src0_T>& src0Local, const LocalTensor<src1_T>& src1Local, const uint32_t m, const uint32_t k, const uint32_t n, GemmTiling tilling, bool partialsum = true, int32_t initValue = 0);
  • 切分方案计算接口:
    template <typename T> __aicore__ inline GemmTiling GetGemmTiling(uint32_t m, uint32_t k, uint32_t n);

参数说明

表1 接口参数说明

参数名称

类型

说明

dstLocal

输出

目的操作数。

Atlas 训练系列产品,支持的QuePosition为:CO1,CO2

Atlas推理系列产品(Ascend 310P处理器)AI Core,支持的QuePosition为:CO1,CO2

src0Local

输入

源操作数,QuePosition为A1。

src1Local

输入

源操作数,QuePosition为B1。

m

输入

左矩阵Src0Local有效Height,范围:[1, 4096]。

注意:m可以不是16的倍数。

k

输入

左矩阵Src0Local有效Width、右矩阵Src1Local有效Height。
  • 当输入张量Src0Local的数据类型为float时,范围:[1, 8192]
  • 当输入张量Src0Local的数据类型为half时,范围:[1, 16384]
  • 当输入张量Src0Local的数据类型为int8_t时,范围:[1, 32768]

注意:k可以不是16的倍数。

n

输入

右矩阵Src1Local有效Width,范围:[1, 4096]。

注意:n可以不是16的倍数。

tilling

输入

切分规则,类型为GemmTiling,结构体具体定义为:

struct GemmTiling {
    const uint32_t blockSize = 16;
    LoopMode loopMode = LoopMode::MODE_NM;
    uint32_t mNum = 0;
    uint32_t nNum = 0;
    uint32_t kNum = 0;
    uint32_t roundM = 0;
    uint32_t roundN = 0;
    uint32_t roundK = 0;
    uint32_t c0Size = 32;
    uint32_t dtypeSize = 1;
    uint32_t mBlockNum = 0;
    uint32_t nBlockNum = 0;
    uint32_t kBlockNum = 0;
    uint32_t mIterNum = 0;
    uint32_t nIterNum = 0;
    uint32_t kIterNum = 0;
    uint32_t mTileBlock = 0;
    uint32_t nTileBlock = 0;
    uint32_t kTileBlock = 0;
    uint32_t kTailBlock = 0;
    uint32_t mTailBlock = 0;
    uint32_t nTailBlock = 0;
    bool kHasTail = false;
    bool mHasTail = false;
    bool nHasTail = false;
    bool kHasTailEle = false;
    uint32_t kTailEle = 0;
    uint32_t kThreadNum = 0;
};

参数说明请参考表3

partialsum

输入

当dstLocal参数所在的QuePosition为CO2时,通过该参数控制计算结果是否搬出。
  • 取值0:搬出计算结果
  • 取值1:不搬出计算结果,可以进行后续计算

initValue

输入

表示dstLocal是否需要初始化。
  • 取值0: dstLocal需要初始化,dstLocal初始矩阵保存有之前结果,新计算结果会累加前一次conv2d 计算结果。
  • 取值1: dstLocal不需要初始化,dstLocal初始矩阵中数据无意义,计算结果直接覆盖dstLocal中的数据。
表2 feature_map、weight和dst的数据类型组合

src0Local.dtype

src1Local.dtype

dstLocal.dtype

int8_t

int8_t

int32_t

half

half

float

half

half

half

表3 GemmTiling结构内参数说明

参数名称

类型

说明

blockSize

uint32_t

固定值,恒为16,一个维度内存放的元素个数。

loopMode

LoopMode

遍历模式,结构体具体定义为:

enum class LoopMode {
    MODE_NM = 0,
    MODE_MN = 1,
    MODE_KM = 2,
    MODE_KN = 3
};

mNum

uint32_t

M轴等效数据长度参数值,范围:[1, 4096]。

nNum

uint32_t

N轴等效数据长度参数值,范围:[1, 4096]。

kNum

uint32_t

K轴等效数据长度参数值。
  • 当输入张量Src0Local的数据类型为float时,范围:[1, 8192]
  • 当输入张量Src0Local的数据类型为half时,范围:[1, 16384]
  • 当输入张量Src0Local的数据类型为int8_t时,范围:[1, 32768]

roundM

uint32_t

M轴等效数据长度参数值且以blockSize为倍数向上取整,范围:[1, 4096]

roundN

uint32_t

N轴等效数据长度参数值且以blockSize为倍数向上取整,范围:[1, 4096]

roundK

uint32_t

K轴等效数据长度参数值且以c0Size为倍数向上取整。
  • 当输入张量Src0Local的数据类型为float时,范围:[1, 8192]
  • 当输入张量Src0Local的数据类型为half时,范围:[1, 16384]
  • 当输入张量Src0Local的数据类型为int8_t时,范围:[1, 32768]

c0Size

uint32_t

一个block的字节长度,范围:[16或者32]。

dtypeSize

uint32_t

传入的数据类型的字节长度,范围:[1, 2]。

mBlockNum

uint32_t

M轴Block个数,mBlockNum = mNum / blockSize。

nBlockNum

uint32_t

N轴Block个数,nBlockNum = nNum / blockSize。

kBlockNum

uint32_t

K轴Block个数,kBlockNum = kNum / blockSize。

mIterNum

uint32_t

遍历维度数量,范围:[1, 4096]。

nIterNum

uint32_t

遍历维度数量,范围:[1, 4096]。

kIterNum

uint32_t

遍历维度数量,范围:[1, 4096]。

mTileBlock

uint32_t

M轴切分块个数,范围:[1, 4096]。

nTileBlock

uint32_t

N轴切分块个数,范围:[1, 4096]。

kTileBlock

uint32_t

K轴切分块个数,范围:[1, 4096]。

kTailBlock

uint32_t

K轴尾块个数,范围:[1, 4096]。

mTailBlock

uint32_t

M轴尾块个数,范围:[1, 4096]。

nTailBlock

uint32_t

N轴尾块个数,范围:[1, 4096]。

kHasTail

bool

K轴是否存在尾块。

mHasTail

bool

M轴是否存在尾块。

nHasTail

bool

N轴是否存在尾块。

kHasTailEle

bool

是否存在尾块元素。

kTailEle

uint32_t

K轴尾块元素,范围:[1, 4096]。

支持的型号

Atlas 训练系列产品

Atlas推理系列产品(Ascend 310P处理器)AI Core

注意事项

  • 参数m,k,n可以不是16对齐,但因硬件原因,操作数dstLocal,Src0Local和Src1Local的shape需满足对齐要求,即m方向,n方向要求向上16对齐,k方向根据操作数数据类型按16或32向上对齐。
  • 操作数地址偏移对齐要求请参见通用约束

调用示例

本示例中,左矩阵形状为[m,k],右矩阵形状为[k,n],计算结果搬出至GM,目的矩阵无需初始化。
#include "kernel_operator.h"
namespace AscendC {
class KernelCubeGEMM {
public:
    __aicore__ inline KernelCubeGEMM() {}
    __aicore__ inline void Init(__gm__ uint8_t* fmGm, __gm__ uint8_t* weGm, __gm__ uint8_t* dstGm, uint32_t mInput,
        uint32_t kInput, uint32_t nInput, bool initVal, LoopMode mode)
    {
        m = mInput;
        k = kInput;
        n = nInput;

        initValue = initVal;
        loopMode = mode;

        featureMapA1Size = m * k;
        weightA1Size = k * n;
        dstCO1Size = m * n;

        roundm = DivCeil(m, 16) * 16;
        roundn = DivCeil(n, 16) * 16;
        roundk = DivCeil(k, c0Size) * c0Size;

        fmGlobal.SetGlobalBuffer((__gm__ half*)fmGm);
        weGlobal.SetGlobalBuffer((__gm__ half*)weGm);
        dstGlobal.SetGlobalBuffer((__gm__ float*)dstGm);

        pipe.InitBuffer(inQueueFmA1, 1, featureMapA1Size * sizeof(half));
        pipe.InitBuffer(inQueueWeB1, 1, weightA1Size * sizeof(half));
        pipe.InitBuffer(outQueueCO1, 1, dstCO1Size * sizeof(float));
        pipe.InitBuffer(outQueueUB, 1, dstCO1Size * sizeof(float));
    }
    __aicore__ inline void Process()
    {
        CopyIn();
        Compute();
        CopyUB();
        CopyOut();
    }

private:
    __aicore__ inline void CopyIn()
    {
        LocalTensor<half> featureMapA1 = inQueueFmA1.AllocTensor<half>();
        LocalTensor<half> weightB1 = inQueueWeB1.AllocTensor<half>();

        DataCopy(featureMapA1, fmGlobal, featureMapA1Size);
        DataCopy(weightB1, weGlobal, weightA1Size);

        inQueueFmA1.EnQue(featureMapA1);
        inQueueWeB1.EnQue(weightB1);
    }

    __aicore__ inline void Compute()
    {
        LocalTensor<half> featureMapA1 = inQueueFmA1.DeQue<half>();
        LocalTensor<half> weightB1 = inQueueWeB1.DeQue<half>();
        LocalTensor<float> dstCO1 = outQueueCO1.AllocTensor<float>();

        GemmTiling tilling = GetGemmTiling<half>(m, k, n);
        tilling.loopMode = loopMode;
        // 左矩阵形状为[m,k],右矩阵形状为[k,n],计算结果搬出至GM,目的矩阵无需初始化
        Gemm(dstCO1, featureMapA1, weightB1, m, k, n, tilling, false, initValue);

        outQueueCO1.EnQue<float>(dstCO1);
        inQueueFmA1.FreeTensor(featureMapA1);
        inQueueWeB1.FreeTensor(weightB1);
    }

    __aicore__ inline void CopyUB()
    {
        LocalTensor<float> dstCO1 = outQueueCO1.DeQue<float>();
        LocalTensor<float> dstUB = outQueueUB.AllocTensor<float>();

        DataCopyParams dataCopyParams;
        dataCopyParams.blockCount = 1;
        dataCopyParams.blockLen = roundm * roundn * sizeof(float) / 1024;
        DataCopyEnhancedParams enhancedParams;
        enhancedParams.blockMode = BlockMode::BLOCK_MODE_MATRIX;

        DataCopy(dstUB, dstCO1, dataCopyParams, enhancedParams);

        outQueueUB.EnQue<float>(dstUB);
        outQueueCO1.FreeTensor(dstCO1);
    }

    __aicore__ inline void CopyOut()
    {
        LocalTensor<float> dstUB = outQueueUB.DeQue<float>();
        DataCopy(dstGlobal, dstUB, roundm * roundn);
        outQueueUB.FreeTensor(dstUB);
    }

private:
    TPipe pipe;
    // feature map queue
    TQue<QuePosition::A1, 1> inQueueFmA1;
    // weight queue
    TQue<QuePosition::B1, 1> inQueueWeB1;
    // dst queue
    TQue<QuePosition::CO1, 1> outQueueCO1;

    TQue<QuePosition::VECOUT, 1> outQueueUB;

    GlobalTensor<half> fmGlobal, weGlobal;
    GlobalTensor<float> dstGlobal;

    uint16_t m;
    uint16_t k;
    uint16_t n;
    uint32_t roundm, roundk, roundn;

    uint32_t c0Size = 16;
    bool initValue = false;
    LoopMode loopMode = LoopMode::MODE_NM;

    uint32_t featureMapA1Size, weightA1Size, dstCO1Size;
};
} // namespace AscendC

extern "C" __global__ __aicore__ void cube_gemm_simple_kernel(__gm__ uint8_t* fmGm, __gm__ uint8_t* weGm,
    __gm__ uint8_t* dstGm, uint32_t m, uint32_t k, uint32_t n, bool initValue, LoopMode mode)
{
    AscendC::KernelCubeGEMM op;
    // 上方示例结果入参为:m = 32, k = 64, n = 32, initValue = false, mode = LoopMode::MODE_NM
    op.Init(fmGm, weGm, dstGm, m, k, n, initValue, mode);
    op.Process();
}
搜索结果
找到“0”个结果

当前产品无相关内容

未找到相关内容,请尝试其他搜索词