InitGlobalMemory
函数功能
将Global Memory上的数据初始化为指定值。该接口可用于对workspace地址或输出数据进行清零。
函数原型
1 2 |
template <typename T> __aicore__ inline void InitGlobalMemory(GlobalTensor<T>& gmWorkspaceAddr, const uint64_t size, const T value) |
参数说明
参数名 |
描述 |
---|---|
T |
操作数的数据类型。 |
参数名称 |
输入/输出 |
含义 |
---|---|---|
gmWorkspaceAddr |
输入 |
gmWorkspaceAddr为用户定义的全局Global空间,是需要被初始化的空间,类型为GlobalTensor。GlobalTensor数据结构的定义请参考GlobalTensor。 Atlas A2训练系列产品/Atlas 800I A2推理产品,支持的数据类型为:uint16_t/int16_t/half/uint32_t/int32_t/float Atlas推理系列产品AI Core,支持的数据类型为:uint16_t/int16_t/half/uint32_t/int32_t/float |
size |
输入 |
需要初始化的空间大小,单位为元素个数。 |
value |
输入 |
初始化的值,数据类型与gmWorkspaceAddr保持一致。 Atlas A2训练系列产品/Atlas 800I A2推理产品,支持的数据类型为:uint16_t/int16_t/half/uint32_t/int32_t/float Atlas推理系列产品AI Core,支持的数据类型为:uint16_t/int16_t/half/uint32_t/int32_t/float |
返回值
无
支持的型号
Atlas A2训练系列产品/Atlas 800I A2推理产品
Atlas推理系列产品AI Core
约束说明
- 当多个核调用此接口对Global Memory进行初始化时,所有核对Global Memory的初始化未必会同时结束,也可能存在核之间读后写、写后读以及写后写等数据依赖问题。这种使用场景下,可以在本接口后调用SyncAll接口保证多核间同步正确。
- 该接口仅支持在程序内存分配InitBuffer接口前使用。
调用示例
本调用示例使用8个核,每个核用当前blockIdx的值初始化zGm上的65536个数,每个核的核内计算为x和y两组全1的65536个half类型数据相加,计算结果累加到zGm。此样例中8个核的blockIdx分别为0到7,输入x和y均为全1数据,则最终zGm输出数据为2到9。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 |
#include "kernel_operator.h" constexpr int32_t INIT_SIZE = 65536; class KernelInitOutput { public: __aicore__ inline KernelInitGlobalMemory() {} __aicore__ inline void Init(GM_ADDR x, GM_ADDR y, GM_ADDR z, TPipe* pipe) { xGm.SetGlobalBuffer((__gm__ half*)x + INIT_SIZE * AscendC::GetBlockIdx(), INIT_SIZE); yGm.SetGlobalBuffer((__gm__ half*)y + INIT_SIZE * AscendC::GetBlockIdx(), INIT_SIZE); zGm.SetGlobalBuffer((__gm__ half*)z + INIT_SIZE * AscendC::GetBlockIdx(), INIT_SIZE); // init zGm value AscendC::InitGlobalMemory(zGm, INIT_SIZE, (half)(AscendC::GetBlockIdx())); pipe->InitBuffer(inQueueX, 1, INIT_SIZE * sizeof(half)); pipe->InitBuffer(inQueueY, 1, INIT_SIZE * sizeof(half)); pipe->InitBuffer(outQueueZ, 1, INIT_SIZE * sizeof(half)); } __aicore__ inline void Process() { CopyIn(); Compute(); CopyOut(); } private: __aicore__ inline void CopyIn() { AscendC::LocalTensor<half> xLocal = inQueueX.AllocTensor<half>(); AscendC::LocalTensor<half> yLocal = inQueueY.AllocTensor<half>(); AscendC::DataCopy(xLocal, xGm, INIT_SIZE); AscendC::DataCopy(yLocal, yGm, INIT_SIZE); inQueueX.EnQue(xLocal); inQueueY.EnQue(yLocal); } __aicore__ inline void Compute() { AscendC::LocalTensor<half> xLocal = inQueueX.DeQue<half>(); AscendC::LocalTensor<half> yLocal = inQueueY.DeQue<half>(); AscendC::LocalTensor<half> zLocal = outQueueZ.AllocTensor<half>(); AscendC::Add(zLocal, xLocal, yLocal, INIT_SIZE); outQueueZ.EnQue<half>(zLocal); inQueueX.FreeTensor(xLocal); inQueueY.FreeTensor(yLocal); } __aicore__ inline void CopyOut() { AscendC::LocalTensor<half> zLocal = outQueueZ.DeQue<half>(); // add result to zGm AscendC::SetAtomicAdd<half>(); AscendC::DataCopy(zGm, zLocal, INIT_SIZE); AscendC::SetAtomicNone(); outQueueZ.FreeTensor(zLocal); } private: AscendC::TQue<AscendC::QuePosition::VECIN, 1> inQueueX, inQueueY; AscendC::TQue<AscendC::QuePosition::VECOUT, 1> outQueueZ; AscendC::GlobalTensor<half> xGm; AscendC::GlobalTensor<half> yGm; AscendC::GlobalTensor<half> zGm; }; extern "C" __global__ __aicore__ void init_output_custom(GM_ADDR x, GM_ADDR y, GM_ADDR z) { KernelInitGlobalMemory op; TPipe pipe; op.Init(x, y, z, &pipe); op.Process(); } |
结果示例如下:
输入数据(x): [1. 1. 1. 1. 1. ... 1.] 输入数据(y): [1. 1. 1. 1. 1. ... 1.] 输出数据(z): [2. 2. 2. 2. 2. ... 2. 3. 3. 3. 3. 3. ... 3. 4. 4. 4. 4. 4. ... 4. 5. 5. 5. 5. 5. ... 5. 6. 6. 6. 6. 6. ... 6. 7. 7. 7. 7. 7. ... 7. 8. 8. 8. 8. 8. ... 8. 9. 9. 9. 9. 9. ... 9.]
父主题: 工具类