LocalTensor
功能说明
用于存放AI Core中Local Memory(内部存储)的数据,支持QuePosition为VECIN、VECOUT、VECCALC、A1、A2、B1、B2、CO1、CO2。
定义原型
template <typename T> class LocalTensor {
__inout_pipe__(S) T GetValue(const uint32_t offset) const
template <typename T1> void SetValue(const uint32_t offset, const T1 value) const;
LocalTensor operator[](const uint32_t offset) const;
T& operator()(const uint32_t index) const;
uint32_t GetSize() const;
void SetUserTag(const TTagType tag);
TTagType GetUserTag( ) const;
int32_t GetPosition() const;
template <typename CAST_T> __aicore__ inline LocalTensor<CAST_T> ReinterpretCast() const;
}
函数说明
类型T支持所有数据类型,但需要遵循使用此LocalTensor的指令的数据类型支持情况。
函数名称 |
入参说明 |
含义 |
---|---|---|
GetValue |
offset:偏移量,单位为 element |
获取 LocalTensor 中的某个值,返回 T 类型的立即数。 该接口仅在LocalTensor的TPosition为VECIN/VECCALC/VECOUT时支持。 |
SetValue |
offset:偏移值,单位为 element value:设置值,单位为任意类型 |
设置 LocalTensor 中的某个值。 该接口仅在LocalTensor的TPosition为VECIN/VECCALC/VECOUT时支持。 |
operator[] |
offset:偏移量 |
获取距原LocalTensor起始地址偏移量为offset的新LocalTensor,注意offset不能超过原有LocalTensor的size大小。 |
operator() |
index: 下标索引 |
获取本LocalTensor的第index个变量的引用。用于左值,相当于SetValue接口,用于右值,相当于GetValue接口。 |
GetSize |
无 |
获取当前LocalTensor size大小。单位为元素。 |
SetUserTag |
tag:设置的Tag信息,类型TTagType对应为int32_t。 |
为Tensor添加用户自定义信息,用户可以根据需要设置对应的Tag。后续可通过GetUserTag获取指定Tensor的Tag信息,并根据Tag信息对Tensor进行相应操作。 |
GetUserTag |
- |
获取指定Tensor块的Tag信息,用户可以根据Tag信息对Tensor进行不同操作。 |
ReinterpretCast |
- |
将当前Tensor重解释为用户指定的新类型,转换后的Tensor与原Tensor地址及内容完全相同,Tensor的大小(字节数)保持不变。 |
GetPhyAddr |
- |
返回LocalTensor的地址 |
GetPosition |
- |
获取QuePosition抽象的逻辑位置,支持QuePosition为VECIN、VECOUT、VECCALC、A1、A2、B1、B2、CO1、CO2。 |
注意事项
不要大量使用SetValue对LocalTensor进行赋值,会使性能下降,若需要大批量赋值,请使用指令接口。
调用示例
// srcLen = 256, num = 100, M=50 // 示例1 for (int32_t i = 0; i < srcLen; ++i) { input_local.SetValue(i, num); // 对input_local中第i个位置进行赋值为num } // 示例1结果如下: // 数据(input_local): [100 100 100 ... 100] // 示例2 for (int32_t i = 0; i < srcLen; ++i) { auto element = input_local.GetValue(i); // 获取input_local中第i个位置的数值 } // 示例2结果如下: // element 为100 // 示例3 for (int32_t i = 0; i < srcLen; ++i) { input_local(i) = num; // 对input_local中第i个位置进行赋值为num } // 示例3结果如下: // 数据(input_local): [100 100 100 ... 100] // 示例4 for (int32_t i = 0; i < srcLen; ++i) { auto element = input_local(i); // 获取input_local中第i个位置的数值 } // 示例4结果如下: // element 为100 // 示例5 auto size = input_local.GetSize(); // 获取input_local的长度,size大小为input_local有多少个element // 示例5结果如下: // size大小为srcLen,256。 // 示例6 Add(output_local[16], input_local[16], input_local2[16], M); // operator[]使用方法,input_local[16]为从起始地址开始偏移量为16的新tensor // 示例6结果如下: // 输入数据(input_local): [100 100 100 ... 100] // 输入数据(input_local2): [1 2 3 ... 66] // 输出数据(output_local): [... 117 118 119 ... 166] // 示例7 TTagType tag = 10; input_local.SetUserTag(tag); // 对LocalTensor设置tag信息。 // 示例8 LocalTensor<half> tensor1 = que1.DeQue<half>(); TTagType tag1 = tensor1.GetUserTag(); LocalTensor<half> tensor2 = que2.DeQue<half>(); TTagType tag2 = tensor2.GetUserTag(); LocalTensor<half> tensor3 = que3.AllocTensor<half>(); /* 使用Tag控制条件语句执行*/ if((tag1 <= 10) && (tag2 >=9)) { Add(tensor3, tensor1, tensor2, TILE_LENGTH); // 当tag1小于等于10,tag2大于等于9的时候,才能进行相加操作。 } // 示例9 // input_local为int32_t 类型,包含16个元素(64字节) for (int32_t i = 0; i < 16; ++i) { input_local.SetValue(i, i); // 对input_local中第i个位置进行赋值为i } // 调用ReinterpretCast将input_local重解释为int16_t类型 LocalTensor<int16_t> interpre_tensor = input_local.ReinterpretCast<int16_t>(); // 示例9结果如下,二者数据完全一致,在物理内存上也是同一地址,仅根据不同类型进行了重解释 // input_local:0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 // interpre_tensor:0 0 1 0 2 0 3 0 4 0 5 0 6 0 7 0 8 0 9 0 10 0 11 0 12 0 13 0 14 0 15 0