InitBuffer
功能说明
TPipe是用来管理全局内存的框架,用户可以调用TPipe中的InitBuffer接口为TQue/TBuf进行内存分配。
定义原型
template <class T> __aicore__ inline bool InitBuffer(T& que, uint8_t num, uint32_t len); template <TPosition pos> __aicore__ inline bool InitBuffer(TBuf<pos>& buf, uint32_t len);
参数说明
表1 bool InitBuffer(T& que, uint8_t num, uint32_t len) 原型定义参数说明
参数名称 |
输入/输出 |
含义 |
---|---|---|
que |
输入 |
需要分配内存的TQue对象 |
num |
输入 |
分配内存块的个数 |
len |
输入 |
每个内存块的大小,单位为Bytes,注意要求32Byte对齐 |
表2 InitBuffer(TBuf<pos>& buf, uint32_t len)原型定义参数说明
参数名称 |
输入/输出 |
含义 |
---|---|---|
buf |
输入 |
需要分配内存的TBuf对象 |
len |
输入 |
为TBuf分配的内存大小,单位为Bytes,注意要求32Byte对齐 |
支持的型号
Atlas 训练系列产品
Atlas推理系列产品AI Core
Atlas A2训练系列产品
注意事项
同一个TPosition上QUE Buffer的数量根据AI处理器型号的不同,有数量约束。申请Buffer时,需要满足该约束。
Atlas 训练系列产品、Atlas推理系列产品AI Core不超过4块。
Atlas A2训练系列产品不超过8块。
TQue<TPosition::VECIN, 1> que0; TQue<TPosition::VECIN, 1> que1; // 不建议: // 比如,算子有6个输入,需要申请6块buffer // 通过2个队列为其申请内存,分别为que0、que1分配3块,申请VECIN position上的buffer总数为6 // 针对Atlas 训练系列产品、Atlas推理系列产品AI Core同一个TPosition上QUE Buffer的数量限制为4,超出该限制,在后续使用AllocTensor/FreeTensor可能会出现分配资源失败。 pipe.InitBuffer(que0, 3, len); pipe.InitBuffer(que1, 3, len); // 此时建议通过以下方法解决: // 如果确实有多块buffer使用, 可以将多个buffer合并到一块buffer, 通过偏移使用 pipe.InitBuffer(que0, 1, len * 3) pipe.Initbuffer(que1, 1, len * 3) /* * 分配出3块内存大小的LocalTensor, local1的地址为que0中buffer的起始地址, * local2的地址为local1的地址偏移len后的地址,local3的地址为local1的地址偏移 * len * 2的地址 */ int32_t offset1 = len; int32_t offset2 = len * 2; LocalTensor<T> local1 = que0.AllocTensor<T>(); LocalTensor<T> local2 = local1[offset1]; LocalTensor<T> local3 = local1[offset2];
返回值
返回Buffer初始化的结果
调用示例
// 为TQue分配内存,分配内存块数为2,每块大小为128Bytes TPipe pipe; // Pipe内存管理对象 TQue<TPosition::VECOUT, 2> que; //输出数据Queue队列管理对象,QuePosition为VECOUT uint8_t num = 2; uint32_t len = 128; pipe.InitBuffer(que, num, len); // 为TBuf分配内存,分配长度为128Bytes TPipe pipe; TBuf<TPosition::A1> buf; //输出数据管理对象,QuePosition为A1 uint32_t len = 128; pipe.InitBuffer(buf, len);
父主题: TPipe