文档
注册
评分
提单
论坛
小AI

GetTensorC

功能说明

Iterate后,获取一块C矩阵片,可以直接输出到GM tensor中,也可以输出到VECIN tensor中。

该接口和Iterate接口配合使用,用于在调用Iterate完成迭代计算后,获取一片baseM * baseN大小的矩阵分片。

迭代获取C矩阵分片的过程分为同步和异步两种模式:

  • 同步:执行完一次Iterate后执行一次GetTensorC,需要同步等待C矩阵分片获取完成。
  • 异步:调用Iterate后,无需立即调用GetTensorC同步等待,可以先执行其他逻辑,待需要获取结果时再调用GetTensorC。异步方式可以减少同步等待,提高并行度,开发者对计算性能要求较高时,可以选用该方式。

函数原型

  • 获取C矩阵,输出至VECIN
    1
    2
    template <bool sync = true>
    __aicore__ inline void GetTensorC(const LocalTensor<DstT>& co2Local, uint8_t enAtomic = 0, bool enSequentialWrite = false)
    
    • 支持同步模式
    • 支持异步模式
  • 获取C矩阵,输出至GM
    1
    2
    template <bool sync = true>
    __aicore__ inline void GetTensorC(const GlobalTensor<DstT>& gm, uint8_t enAtomic = 0, bool enSequentialWrite = false)
    
    • 支持同步模式
    • 支持异步模式
  • 获取C矩阵,同时输出至GM和VECIN
    1
    2
    template <bool sync = true>
    __aicore__ inline void GetTensorC(const GlobalTensor<DstT> &gm, const LocalTensor<DstT> &co2Local, uint8_t enAtomic = 0, bool enSequentialWrite = false)
    
    • 支持同步模式
    • 支持异步模式
    • CUBE_ONLY(只有矩阵计算)模式暂不支持该接口
    • Atlas 200/500 A2推理产品暂不支持同时输出至GM和VECIN
  • 获取API接口返回的GM上的C矩阵,后续使用过程由开发者自行控制

    C矩阵输出到VECIN时, VECIN对应的物理位置Unified Buffer的大小会影响Matmul计算的力度,Unified Buffer的大小过小时,无法充分利用硬件算力。提供该接口支持返回API框架申请的GM上的C矩阵,由开发者自行控制后续使用过程。

    注意,在初始化时,C矩阵的逻辑位置应设置为TPosition::VECIN,调用该接口获取GM上的C矩阵后,自行拷贝到Unified Buffer

    1
    2
    template <bool sync = true>
    __aicore__ inline GlobalTensor<DstT> GetTensorC(uint8_t enAtomic = 0, bool enSequentialWrite = false)
    
    • 支持异步模式

以下接口中的doPad、height、width、srcGap、dstGap参数待废弃,使用过程中无需传入,保持默认值即可;上文介绍的输出至VECIN的原型实际为不传入默认值的函数原型。

1
2
template <bool sync = true, bool doPad = false>
__aicore__ inline void GetTensorC(const LocalTensor<DstT>& c, uint8_t enAtomic = 0, bool enSequentialWrite = false, uint32_t height = 0, uint32_t width = 0, uint32_t srcGap = 0, uint32_t dstGap = 0)

参数说明

表1 模板参数说明

参数名

描述

sync

设置同步或者异步模式:同步模式设置为true;异步模式设置为false。

Atlas推理系列产品(Ascend 310P处理器)AI Core不支持异步模式。

Atlas 200/500 A2推理产品不支持异步模式。

Atlas A2训练系列产品/Atlas 800I A2推理产品支持异步模式。

表2 接口参数说明

参数名

输入/输出

描述

c/co2Local

输出

取出C矩阵到VECIN,数据格式仅支持NZ。

针对Atlas A2训练系列产品/Atlas 800I A2推理产品支持的数据类型为half、float、bfloat16_t、int32_t、int8_t

针对Atlas推理系列产品(Ascend 310P处理器)AI Core支持的数据类型为half、float、int8_t、int32_t

Atlas 200/500 A2推理产品支持的数据类型为half、float、bfloat16_t、int32_t

gm

输出

取出C矩阵到GM,数据格式可以为ND或NZ。

针对Atlas A2训练系列产品/Atlas 800I A2推理产品支持的数据类型为half、float、bfloat16_t、int32_t、int8_t

针对Atlas推理系列产品(Ascend 310P处理器)AI Core支持的数据类型为half、float、int8_t、int32_t

Atlas 200/500 A2推理产品支持的数据类型为half、float、bfloat16_t、int32_t

enAtomic

输入

是否开启Atomic操作,默认值为0

参数取值:

0:不开启Atomic操作

1:开启AtomicAdd累加操作

2:开启AtomicMax求最大值操作

3:开启AtomicMin求最小值操作

对于Atlas推理系列产品(Ascend 310P处理器)AI Core只有输出位置是GM才支持开启Atomic操作。

对于Atlas 200/500 A2推理产品只有输出位置是GM才支持开启Atomic操作。

enSequentialWrite

输入

是否开启连续写模式(连续写,写入[baseM,baseN];非连续写,写入[singleCoreM、singleCoreN]中对应的位置),默认值false(非连续写模式)。

注意:非连续写模式,内部会按照迭代顺序算好偏移,开发者不需要关注;如果开发者需要自己决定排布顺序,可以选择连续写模式,自行按照自己设定的偏移进行搬运操作。

对于Atlas 200/500 A2推理产品只支持非连续写模式。

图1 非连续写模式示意图
图2 连续写模式示意图

返回值

支持的型号

Atlas A2训练系列产品/Atlas 800I A2推理产品

Atlas推理系列产品(Ascend 310P处理器)AI Core

Atlas 200/500 A2推理产品

注意事项

  • 传入的C矩阵地址空间大小需要保证不小于baseM * baseN。
  • 异步场景时,需要使用一块临时空间来缓存Iterate计算结果,调用GetTensorC时会在该临时空间中获取C的矩阵分片。临时空间通过SetWorkspace接口进行设置。SetWorkspace接口需要在Iterate接口之前调用。

调用示例

  • 获取C矩阵,输出至VECIN
    // 同步模式样例
    while (mm.Iterate()) {   
        mm.GetTensorC(ubCmatrix); 
    }
    
    // 异步模式样例
    mm.template Iterate<false>();
    …… ……
    for (int i = 0; i < singleM/baseM*singleN/baseN; ++i) {   
        mm.GetTensorC<false>(ubCmatrix); 
        ...other compute
    }
  • 获取C矩阵,输出至GM,同步模式样例
    while (mm.Iterate()) {   
        mm.GetTensorC(gm); 
    }
  • 获取C矩阵,同时输出至GM和VECIN,同步模式样例
    while (mm.Iterate()) {   
        mm.GetTensorC(gm, ubCmatrix); 
    }
  • 获取API接口返回的GM上的C矩阵,手动拷贝至UB,异步模式样例
    // BaseM * BaseN = 128 *256
    mm.SetTensorA(gmA);
    mm.SetTensorB(gmB);
    mm.SetTail(singleM, singleN, singleK);
    mm.template Iterate<false>(); 
    …………
    for (int i = 0; i < singleM / baseM * singleN / baseN; ++i) {  
        // 获取每次计算的BaseM*BaseN的数据(128*256) 
        GlobalTensor<T> global = mm.template GetTensorC<false>();
        for(int j = 0; j < 4; ++j) {
            LocalTensor local = que.AllocTensor<half>(); //分配64*128大小的UB空间
            DataCopy(local, global[64 * 128 * i], 64 * 128); // 将GM的数据拷贝进UB中,进行后续的Vector操作
            ... Vector 操作
        }
    }
搜索结果
找到“0”个结果

当前产品无相关内容

未找到相关内容,请尝试其他搜索词