TQue简介
模板参数
template <TPosition pos, int32_t depth, auto mask = 0> class TQue{...};
参数名称 |
含义 |
---|---|
pos |
队列逻辑位置,可以为VECIN、VECOUT、A1、A2、B1、B2、CO1、CO2。关于TPosition的具体介绍请参考TPosition。 |
depth |
队列的深度表示该队列可以连续进行入队/出队的次数,在代码运行时,对同一个队列有n次连续的EnQue(中间没有DeQue),那么该队列的深度就需要设置为n。 注意,这里的队列深度和double buffer无关,队列机制用于实现流水线并行,double buffer在此基础上进一步提高流水线的利用率。即使队列的深度为1,仍可以开启double buffer。 队列的深度设置为1时,编译器对这种场景做了特殊优化,性能通常更好,推荐设置为1。
|
mask |
|
TQue Buffer限制
由于TQue分配的Buffer存储着同步事件eventID,故同一个TPosition上QUE Buffer的数量与硬件的同步事件eventID有关。
针对Atlas 训练系列产品,eventID的数量为4
Atlas推理系列产品AI Core,eventID的数量为8
Atlas推理系列产品Vector Core,eventID的数量为8
Atlas A2训练系列产品/Atlas 800I A2推理产品,eventID的数量为8
Atlas 200/500 A2推理产品,eventID的数量为8
QUE的Buffer数量最大也分别为8个或4个,即能插入的同步事件的个数为8个或4个。当用TPipe的InitBuffer申请TQue时,会受到Buffer数量的限制,TQue能申请到的最大个数分别为8个或4个。
如果同时使用的QUE Buffer超出限制,则无法再申请TQue。如果想要继续申请,可以调用FreeAllEvent接口来释放一些暂时不用的的TQue。在使用完对应TQue后,用该接口释放对应队列中的所有事件,之后便可再次申请TQue。样例如下:
// 能申请的VECIN position上的buffer数量最大为8。如果超出该限制,在后续使用AllocTensor/FreeTensor可能会出现分配资源失败。故当不开启double buffer时,此时最多能申请8个TQue。 TPipe pipe; int len = 1024; TQue<TPosition::VECIN, 1> que0; TQue<TPosition::VECIN, 1> que1; TQue<TPosition::VECIN, 1> que2; TQue<TPosition::VECIN, 1> que3; TQue<TPosition::VECIN, 1> que4; TQue<TPosition::VECIN, 1> que5; TQue<TPosition::VECIN, 1> que6; TQue<TPosition::VECIN, 1> que7; pipe.InitBuffer(que0, 1, len); pipe.InitBuffer(que1, 1, len); pipe.InitBuffer(que2, 1, len); pipe.InitBuffer(que3, 1, len); pipe.InitBuffer(que4, 1, len); pipe.InitBuffer(que5, 1, len); pipe.InitBuffer(que6, 1, len); pipe.InitBuffer(que7, 1, len); // 如果开启double buffer,此时每一个TQue分配的内存块个数为2,故最多只能申请4个TQue。 TPipe pipe; int len = 1024; TQue<TPosition::VECIN, 1> que0; TQue<TPosition::VECIN, 1> que1; TQue<TPosition::VECIN, 1> que2; TQue<TPosition::VECIN, 1> que3; pipe.InitBuffer(que0, 2, len); pipe.InitBuffer(que1, 2, len); pipe.InitBuffer(que2, 2, len); pipe.InitBuffer(que3, 2, len); // 如果TQue个数已达最大值,可以调用FreeAllEvent接口来继续申请TQue。 TPipe pipe; int len = 1024; TQue<TPosition::VECIN, 1> que0; pipe.InitBuffer(que0, 1, len); LocalTensor<half> tensor1 = que0.AllocTensor<half>(); que0.EnQue(tensor1); tensor1 = que0.DeQue<half>(); // 将tensor从VECOUT的Queue中搬出 que0.FreeTensor<half>(tensor1); que0.FreeAllEvent(); // 释放que0的所有同步事件,之后可继续申请TQue TQue<TPosition::VECIN, 1> que1; pipe.InitBuffer(que1, 1, len);
调用示例
以下用例通过传入TQueConfig使能bufferNumber的编译期计算。vector算子不涉及数据格式的转换,所以nd2nz和nz2nd是false。
// 用户自定义的构造TQueConfig的元函数 __aicore__ constexpr TQueConfig GetMyTQueConfig(bool nd2nzIn, bool nz2ndIn, bool scmBlockGroupIn, uint32_t bufferLenIn, uint32_t bufferNumberIn, uint32_t consumerSizeIn, const TPosition consumerIn[]) { return { .nd2nz = nd2nzIn, .nz2nd = nz2ndIn, .scmBlockGroup = scmBlockGroupIn, .bufferLen = bufferLenIn, .bufferNumber = bufferNumberIn, .consumerSize = consumerSizeIn, .consumer = {consumerIn[0], consumerIn[1], consumerIn[2], consumerIn[3], consumerIn[4], consumerIn[5], consumerIn[6], consumerIn[7]} }; } static constexpr TPosition tp[8] = {TPosition::MAX, TPosition::MAX, TPosition::MAX, TPosition::MAX, TPosition::MAX, TPosition::MAX, TPosition::MAX, TPosition::MAX}; static constexpr TQueConfig conf = GetMyTQueConfig(false, false, false, 0, 1, 0, tp); template <typename srcType> class KernelAscendQuant { public: __aicore__ inline KernelAscendQuant() {} __aicore__ inline void Init(GM_ADDR src_gm, GM_ADDR dst_gm, uint32_t inputSize) { dataSize = inputSize; src_global.SetGlobalBuffer(reinterpret_cast<__gm__ srcType*>(src_gm), dataSize); dst_global.SetGlobalBuffer(reinterpret_cast<__gm__ int8_t*>(dst_gm), dataSize); pipe.InitBuffer(inQueueX, 1, dataSize * sizeof(srcType)); pipe.InitBuffer(outQueue, 1, dataSize * sizeof(int8_t)); } __aicore__ inline void Process() { CopyIn(); Compute(); CopyOut(); } private: __aicore__ inline void CopyIn() { ... } __aicore__ inline void Compute() { ... } __aicore__ inline void CopyOut() { ... } private: GlobalTensor<srcType> src_global; GlobalTensor<int8_t> dst_global; TPipe pipe; TQue<QuePosition::VECIN, 1, &conf> inQueueX; TQue<QuePosition::VECOUT, 1, &conf> outQueue; uint32_t dataSize = 0; }; template <typename dataType> __aicore__ void kernel_ascend_quant_operator(GM_ADDR src_gm, GM_ADDR dst_gm, uint32_t dataSize) { KernelAscendQuant<dataType> op; op.Init(src_gm, dst_gm, dataSize); op.Process(); }