Transpose
功能说明
1、可实现16*16的二维矩阵数据块的转置;
2、可实现[N,C,H,W]与[N,H,W,C]互相转换。
函数原型
// 普通转置,支持16*16的二维矩阵数据块进行转置: template <typename T> void Transpose(const LocalTensor<T>& dstLocal, const LocalTensor<T>& srcLocal); // 增强转置,支持16*16的二维矩阵数据块转置,支持[N,C,H,W]与[N,H,W,C]互相转换: template <typename T> void Transpose(const LocalTensor<T> &dstLocal, const LocalTensor<T> &srcLocal, const LocalTensor<uint8_t> &sharedTmpBuffer, const TransposeParamsExt &transposeParams);
参数说明
参数名称 |
输入/输出 |
含义 |
---|---|---|
dstLocal |
输出 |
目的操作数。 类型为LocalTensor,支持的TPosition为VECIN/VECCALC/VECOUT。 普通转置接口: Atlas 训练系列产品,支持的数据类型为:uint16_t/int16_t/half Atlas推理系列产品AI Core,支持的数据类型为:uint16_t/int16_t/half Atlas A2训练系列产品/Atlas 800I A2推理产品,支持的数据类型为:uint16_t/int16_t/half 增强转置接口: 参考表3 |
srcLocal |
输入 |
源操作数。 类型为LocalTensor,支持的TPosition为VECIN/VECCALC/VECOUT。 数据类型须与dstLocal保持一致。 |
sharedTmpBuffer |
输入 |
共享的临时Buffer Tensor,sharedTmpBuffer的大小参考表 |
transposeParams |
输入 |
控制Transpose的数据结构。结构体内包含:输入的shape信息和transposeType参数。该数据结构的定义请参考表2。 struct VtransposeParams { uint16_t nSize; uint16_t cSize; uint16_t hSize; uint16_t wSize; TransposeType transposeType; }; |
参数名称 |
含义 |
---|---|
nSize |
n轴长度,取值范围:m∈[0, 65535] 。默认值为0。 |
cSize |
c轴长度,取值范围:m∈[0, 65535] 。默认值为0。 |
hSize |
h轴长度,取值范围:m∈[0, 65535] 。默认值为0。 |
wSize |
w轴长度,取值范围:m∈[0, 65535] 。默认值为0。 |
transposeType |
数据排布及reshape的类型,类型为TransposeType枚举类。 enum class TransposeType : uint8_t { TRANSPOSE_TYPE_NONE, // default value TRANSPOSE_NZ2ND_0213, // 当前不支持 TRANSPOSE_NZ2NZ_0213, // 当前不支持 TRANSPOSE_NZ2NZ_012_WITH_N, // 当前不支持 TRANSPOSE_NZ2ND_012_WITH_N, // 当前不支持 TRANSPOSE_NZ2ND_012_WITHOUT_N, // 当前不支持 TRANSPOSE_NZ2NZ_012_WITHOUT_N, // 当前不支持 TRANSPOSE_ND2ND_ONLY, // 当前不支持 TRANSPOSE_ND_UB_GM, // 当前不支持 TRANSPOSE_GRAD_ND_UB_GM, // 当前不支持 TRANSPOSE_ND2ND_B16, // [16,16]二维矩阵转置 TRANSPOSE_NCHW2NHWC, // [N,C,H,W]->[N,H,W,C], TRANSPOSE_NHWC2NCHW // [N,H,W,C]->[N,C,H,W] }; 注意:当transposeType为TRANSPOSE_ND2ND_B16时,hSize和wSize必须传入16,nSize和cSize传入无效; |
transposeType |
支持的数据类型 |
---|---|
TRANSPOSE_ND2ND_B16 |
Atlas推理系列产品AI Core,支持的数据类型为:uint16_t Atlas A2训练系列产品/Atlas 800I A2推理产品,支持的数据类型为:uint16_t 注意:如果要实现int16_t/half类型,shape为[16,16]二维矩阵的转置,可使用普通转置接口; |
TRANSPOSE_NCHW2NHWC |
Atlas推理系列产品AI Core,支持的数据类型为:uint8_t/uint16_t/uint32_t Atlas A2训练系列产品/Atlas 800I A2推理产品,支持的数据类型为:int8_t/uint8_t/int16_t/uint16_t/half/int32_t/uint32_t/float |
TRANSPOSE_NHWC2NCHW |
Atlas推理系列产品AI Core,支持的数据类型为:uint8_t/uint16_t/uint32_t Atlas A2训练系列产品/Atlas 800I A2推理产品,支持的数据类型为:int8_t/uint8_t/int16_t/uint16_t/half/int32_t/uint32_t/float |
transposeType |
支持的数据类型 |
---|---|
TRANSPOSE_ND2ND_B16 |
Atlas推理系列产品AI Core:0B Atlas A2训练系列产品/Atlas 800I A2推理产品:0B |
TRANSPOSE_NCHW2NHWC |
Atlas推理系列产品AI Core:0B Atlas A2训练系列产品/Atlas 800I A2推理产品: int8_t/uint8_t类型:(cSize + 2) * 32 * 32 * 1B int16_t/uint16_t/half类型:(cSize + 2) * 16 * 16 * 2B int32_t/uint32_t/float类型:(cSize + 2) * 16 * 8 * 4B |
TRANSPOSE_NHWC2NCHW |
Atlas推理系列产品AI Core:0Byte Atlas A2训练系列产品/Atlas 800I A2推理产品: int8_t/uint8_t类型:(cSize * 2 + 1) * 32 * 32 * 1B int16_t/uint16_t/half类型:(cSize * 2 + 1) * 16 * 16 * 2B int32_t/uint32_t/float类型:(cSize * 2 + 1) * 16 * 8 * 4B |
支持的型号
Atlas 训练系列产品
Atlas推理系列产品AI Core
Atlas A2训练系列产品/Atlas 800I A2推理产品
注意事项
- 操作数地址偏移对齐要求请参见通用约束。
- 该指令不可迭代(即不能通过repeatTimes重复)。
- [N,C,H,W]与[N,H,W,C]互相转换,H*W需要32B对齐。
- 普通转置接口支持srcLocal和dstLocal复用。
- 增强转置接口,transposeType为TRANSPOSE_ND2ND_B16时支持srcLocal和dstLocal复用,transposeType为TRANSPOSE_NCHW2NHWC、TRANSPOSE_NHWC2NCHW时不支持srcLocal和dstLocal复用。
返回值
无
调用示例
#include "kernel_operator.h" namespace AscendC { class KernelTranspose { public: __aicore__ inline KernelTranspose() {} __aicore__ inline void Init(__gm__ uint8_t* src, __gm__ uint8_t* dstGm) { srcGlobal.SetGlobalBuffer((__gm__ half*)src); dstGlobal.SetGlobalBuffer((__gm__ half*)dstGm); pipe.InitBuffer(inQueueSrc, 1, srcDataSize * sizeof(half)); pipe.InitBuffer(outQueueDst, 1, dstDataSize * sizeof(half)); } __aicore__ inline void Process() { CopyIn(); Compute(); CopyOut(); } private: __aicore__ inline void CopyIn() { LocalTensor<half> srcLocal = inQueueSrc.AllocTensor<half>(); DataCopy(srcLocal, srcGlobal, srcDataSize); inQueueSrc.EnQue(srcLocal); } __aicore__ inline void Compute() { LocalTensor<half> srcLocal = inQueueSrc.DeQue<half>(); LocalTensor<half> dstLocal = outQueueDst.AllocTensor<half>(); Transpose<half>(dstLocal, srcLocal); outQueueDst.EnQue<half>(dstLocal); inQueueSrc.FreeTensor(srcLocal); } __aicore__ inline void CopyOut() { LocalTensor<half> dstLocal = outQueueDst.DeQue<half>(); DataCopy(dstGlobal, dstLocal, dstDataSize); outQueueDst.FreeTensor(dstLocal); } private: TPipe pipe; TQue<QuePosition::VECIN, 1> inQueueSrc; TQue<QuePosition::VECOUT, 1> outQueueDst; GlobalTensor<half> srcGlobal, dstGlobal; int srcDataSize = 256; int dstDataSize = 256; }; } // namespace AscendC extern "C" __global__ __aicore__ void transpose_kernel(__gm__ uint8_t* src, __gm__ uint8_t* dstGm) { AscendC::KernelTranspose op; op.Init(src, dstGm); op.Process(); } 输入数据(src_gm): [[ 0. 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15.] [ 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31.] [ 32. 33. 34. 35. 36. 37. 38. 39. 40. 41. 42. 43. 44. 45. 46. 47.] [ 48. 49. 50. 51. 52. 53. 54. 55. 56. 57. 58. 59. 60. 61. 62. 63.] [ 64. 65. 66. 67. 68. 69. 70. 71. 72. 73. 74. 75. 76. 77. 78. 79.] [ 80. 81. 82. 83. 84. 85. 86. 87. 88. 89. 90. 91. 92. 93. 94. 95.] [ 96. 97. 98. 99. 100. 101. 102. 103. 104. 105. 106. 107. 108. 109. 110. 111.] [112. 113. 114. 115. 116. 117. 118. 119. 120. 121. 122. 123. 124. 125. 126. 127.] [128. 129. 130. 131. 132. 133. 134. 135. 136. 137. 138. 139. 140. 141. 142. 143.] [144. 145. 146. 147. 148. 149. 150. 151. 152. 153. 154. 155. 156. 157. 158. 159.] [160. 161. 162. 163. 164. 165. 166. 167. 168. 169. 170. 171. 172. 173. 174. 175.] [176. 177. 178. 179. 180. 181. 182. 183. 184. 185. 186. 187. 188. 189. 190. 191.] [192. 193. 194. 195. 196. 197. 198. 199. 200. 201. 202. 203. 204. 205. 206. 207.] [208. 209. 210. 211. 212. 213. 214. 215. 216. 217. 218. 219. 220. 221. 222. 223.] [224. 225. 226. 227. 228. 229. 230. 231. 232. 233. 234. 235. 236. 237. 238. 239.] [240. 241. 242. 243. 244. 245. 246. 247. 248. 249. 250. 251. 252. 253. 254. 255.]] 输出数据(dst_gm): [[ 0. 16. 32. 48. 64. 80. 96. 112. 128. 144. 160. 176. 192. 208. 224. 240.] [ 1. 17. 33. 49. 65. 81. 97. 113. 129. 145. 161. 177. 193. 209. 225. 241.] [ 2. 18. 34. 50. 66. 82. 98. 114. 130. 146. 162. 178. 194. 210. 226. 242.] [ 3. 19. 35. 51. 67. 83. 99. 115. 131. 147. 163. 179. 195. 211. 227. 243.] [ 4. 20. 36. 52. 68. 84. 100. 116. 132. 148. 164. 180. 196. 212. 228. 244.] [ 5. 21. 37. 53. 69. 85. 101. 117. 133. 149. 165. 181. 197. 213. 229. 245.] [ 6. 22. 38. 54. 70. 86. 102. 118. 134. 150. 166. 182. 198. 214. 230. 246.] [ 7. 23. 39. 55. 71. 87. 103. 119. 135. 151. 167. 183. 199. 215. 231. 247.] [ 8. 24. 40. 56. 72. 88. 104. 120. 136. 152. 168. 184. 200. 216. 232. 248.] [ 9. 25. 41. 57. 73. 89. 105. 121. 137. 153. 169. 185. 201. 217. 233. 249.] [ 10. 26. 42. 58. 74. 90. 106. 122. 138. 154. 170. 186. 202. 218. 234. 250.] [ 11. 27. 43. 59. 75. 91. 107. 123. 139. 155. 171. 187. 203. 219. 235. 251.] [ 12. 28. 44. 60. 76. 92. 108. 124. 140. 156. 172. 188. 204. 220. 236. 252.] [ 13. 29. 45. 61. 77. 93. 109. 125. 141. 157. 173. 189. 205. 221. 237. 253.] [ 14. 30. 46. 62. 78. 94. 110. 126. 142. 158. 174. 190. 206. 222. 238. 254.] [ 15. 31. 47. 63. 79. 95. 111. 127. 143. 159. 175. 191. 207. 223. 239. 255.]]
增强接口调用示例,该示例是half类型的[N,C,H,W]->[N,H,W,C]转置,
#include "kernel_operator.h" namespace AscendC { template <typename T> class Kernel4dTrans { public: __aicore__ inline Kernel4dTrans() {} __aicore__ inline void Init(__gm__ uint8_t *srcGm, __gm__ uint8_t *dstGm) { inputSize = N * C * H * W; tmpBufferSize = (C + 2) * 16 * 16; srcGlobal.SetGlobalBuffer((__gm__ T *)srcGm); dstGlobal.SetGlobalBuffer((__gm__ T *)dstGm); pipe.InitBuffer(inQueueSrcVecIn, 1, inputSize*sizeof(T)); pipe.InitBuffer(inQueueSrcVecOut, 1, inputSize*sizeof(T)); pipe.InitBuffer(tmpQueue, 1, tmpBufferSize * sizeof(T)); } __aicore__ inline void Process() { CopyIn(); Compute(); CopyOut(); } private: __aicore__ inline void CopyIn() { LocalTensor<T> srcLocal = inQueueSrcVecIn.AllocTensor<T>(); DataCopy(srcLocal, srcGlobal, inputSize); inQueueSrcVecIn.EnQue(srcLocal); } __aicore__ inline void Compute() { LocalTensor<T> srcLocal = inQueueSrcVecIn.DeQue<T>(); LocalTensor<T> dstLocal = inQueueSrcVecOut.AllocTensor<T>(); LocalTensor<uint8_t> stackBuffer = tmpQueue.AllocTensor<uint8_t>(); TransposeParamsExt transposeParams; transposeParams.nSize = N; transposeParams.cSize = C; transposeParams.hSize = H; transposeParams.wSize = W; transposeParams.transposeType = transposetype; Transpose(dstLocal, srcLocal, stackBuffer, transposeParams); inQueueSrcVecOut.EnQue<T>(dstLocal); inQueueSrcVecIn.FreeTensor(srcLocal); tmpQueue.FreeTensor(stackBuffer); } __aicore__ inline void CopyOut() { LocalTensor<T> dstLocal = inQueueSrcVecOut.DeQue<T>(); DataCopy(dstGlobal, dstLocal, inputSize); inQueueSrcVecOut.FreeTensor(dstLocal); } private: TPipe pipe; TQue<QuePosition::VECIN, 1> inQueueSrcVecIn; TQue<QuePosition::VECOUT, 1> inQueueSrcVecOut; TQue<QuePosition::VECCALC, 1> tmpQueue; GlobalTensor<T> srcGlobal; GlobalTensor<T> dstGlobal; uint32_t N = 3; uint32_t C = 3; uint32_t H = 2; uint32_t W = 8; uint32_t inputSize, tmpBufferSize; TransposeType transposetype = TransposeType::TRANSPOSE_NCHW2NHWC; }; } // namespace AscendC extern "C" __global__ __aicore__ void transpose_kernel(__gm__ uint8_t* srcGm, __gm__ uint8_t* dstGm) { AscendC::Kernel4dTrans<half>op; op.Init(srcGm, dstGm); op.Process(); }