WholeReduceMin
函数原型
- mask逐bit模式:
1 2
template <typename T, bool isSetMask = true> __aicore__ inline void WholeReduceMin(const LocalTensor<T>& dstLocal, const LocalTensor<T>& srcLocal, const uint64_t mask[2], const int32_t repeatTimes, const int32_t dstRepStride, const int32_t srcBlkStride, const int32_t srcRepStride, ReduceOrder order = ReduceOrder::ORDER_VALUE_INDEX)
- mask连续模式:
1 2
template <typename T, bool isSetMask = true> __aicore__ inline void WholeReduceMin(const LocalTensor<T>& dstLocal, const LocalTensor<T>& srcLocal, const int32_t mask, const int32_t repeatTimes, const int32_t dstRepStride, const int32_t srcBlkStride, const int32_t srcRepStride, ReduceOrder order = ReduceOrder::ORDER_VALUE_INDEX)
参数说明
参数名 |
描述 |
---|---|
T |
操作数数据类型。 |
isSetMask |
是否在接口内部设置mask。
|
参数名称 |
输入/输出 |
含义 |
---|---|---|
dstLocal |
输出 |
目的操作数。 类型为LocalTensor,支持的TPosition为VECIN/VECCALC/VECOUT。 Atlas 训练系列产品,支持的数据类型为:half Atlas推理系列产品AI Core,支持的数据类型为:half/float Atlas A2训练系列产品/Atlas 800I A2推理产品,支持的数据类型为:half/float Atlas 200/500 A2推理产品,支持的数据类型为:half/float |
srcLocal |
输入 |
源操作数。 类型为LocalTensor,支持的TPosition为VECIN/VECCALC/VECOUT。 源操作数的数据类型需要与目的操作数保持一致。 Atlas 训练系列产品,支持的数据类型为:half Atlas推理系列产品AI Core,支持的数据类型为:half/float Atlas A2训练系列产品/Atlas 800I A2推理产品,支持的数据类型为:half/float Atlas 200/500 A2推理产品,支持的数据类型为:half/float |
mask |
输入 |
|
repeatTimes |
输入 |
迭代次数。取值范围为[0, 255]。 |
dstRepStride |
输入 |
目的操作数相邻迭代间的地址步长。以一个repeat归约后的长度为单位。 返回索引和最值时,单位为dstLocal数据类型所占字节长度的两倍。比如当dstLocal为half时,单位为4Bytes; 仅返回最值时,单位为dstLocal数据类型所占字节长度; 仅返回索引时,单位为uint32_t类型所占字节长度。 注意,此参数值Atlas 训练系列产品不支持配置0。 |
srcBlkStride |
输入 |
单次迭代内datablock的地址步长。详细说明请参考dataBlockStride(同一迭代内不同datablock的地址步长)。 |
srcRepStride |
输入 |
源操作数相邻迭代间的地址步长,即源操作数每次迭代跳过的datablock数目。详细说明请参考repeatStride(相邻迭代间相同datablock的地址步长)。 |
order |
输入 |
使用order参数指定dstLocal中index与value的相对位置以及返回结果行为,ReduceOrder类型,默认值为ORDER_VALUE_INDEX。取值范围如下:
|
返回值
无
支持的型号
Atlas 训练系列产品
Atlas推理系列产品AI Core
Atlas A2训练系列产品/Atlas 800I A2推理产品
Atlas 200/500 A2推理产品
约束说明
- srcLocal和dstLocal地址对齐要求请见 :通用约束。
- 为节省地址空间,开发者可以定义一个Tensor,供源操作数与目的操作数同时使用(即地址重叠),相关约束如下:
- 对于单次repeat(repeatTimes=1),且源操作数与目的操作数之间要求100%完全重叠,不支持部分重叠。
- 对于多次repeat(repeatTimes>1),操作数与目的操作数之间存在依赖的情况下,即第N次迭代的目的操作数是第N+1次的源操作数,不支持地址重叠。
- dstLocal结果存储顺序由order决定,默认为最值,最值索引。返回结果中索引index数据按照dstLocal的数据类型进行存储,比如dstLocal使用half类型时,index按照half类型进行存储,读取时需要使用reinterpret_cast方法转换到整数类型。若输入数据类型是half,需要使用reinterpret_cast<uint16_t>,若输入是float,需要使用reinterpret_cast<uint32_t>。比如调用示例中,前两个计算结果为[9.980e-01 5.364e-06], 5.364e-06需要使用reinterpret_cast方法转换得到索引值90。
- 对于WholeReduceMax/WholeReduceMin接口,由于order参数值Atlas 200/500 A2推理产品不支持,若需要计算index索引值,需要配置dstRepStride>1,比如当dstRepStride=2时,dstLocal结果会返回最值,最值索引。
调用示例
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 |
#include "kernel_operator.h" class KernelReduce { public: __aicore__ inline KernelReduce() {} __aicore__ inline void Init(__gm__ uint8_t* src, __gm__ uint8_t* dstGm) { srcGlobal.SetGlobalBuffer((__gm__ half*)src); dstGlobal.SetGlobalBuffer((__gm__ half*)dstGm); repeat = srcDataSize / mask; pipe.InitBuffer(inQueueSrc, 1, srcDataSize * sizeof(half)); pipe.InitBuffer(outQueueDst, 1, dstDataSize * sizeof(half)); } __aicore__ inline void Process() { CopyIn(); Compute(); CopyOut(); } private: __aicore__ inline void CopyIn() { AscendC::LocalTensor<half> srcLocal = inQueueSrc.AllocTensor<half>(); AscendC::DataCopy(srcLocal, srcGlobal, srcDataSize); inQueueSrc.EnQue(srcLocal); } __aicore__ inline void Compute() { AscendC::LocalTensor<half> srcLocal = inQueueSrc.DeQue<half>(); AscendC::LocalTensor<half> dstLocal = outQueueDst.AllocTensor<half>(); AscendC::WholeReduceMin<half>(dstLocal, srcLocal, mask, repeat, 1, 1, 8); // 使用默认order outQueueDst.EnQue<half>(dstLocal); inQueueSrc.FreeTensor(srcLocal); } __aicore__ inline void CopyOut() { AscendC::LocalTensor<half> dstLocal = outQueueDst.DeQue<half>(); AscendC::DataCopy(dstGlobal, dstLocal, dstDataSize); outQueueDst.FreeTensor(dstLocal); } private: AscendC::TPipe pipe; AscendC::TQue<AscendC::QuePosition::VECIN, 1> inQueueSrc; AscendC::TQue<AscendC::QuePosition::VECOUT, 1> outQueueDst; AscendC::GlobalTensor<half> srcGlobal, dstGlobal; int srcDataSize = 1024; int dstDataSize = 16; int mask = 128; int repeat = 0; }; extern "C" __global__ __aicore__ void reduce_kernel(__gm__ uint8_t* src, __gm__ uint8_t* dstGm) { KernelReduce op; op.Init(src, dstGm); op.Process(); } |
示例结果如下:
输入数据(src_gm): [8.94 4.773 8.53 6.047 7.883 3.824 8.04 1.233 9.125 7.484 8.21 1.197 4.34 2.99 6.55 2.494 2.758 9.664 3.406 1.665 2.059 3.836 8.83 2.72 5.81 9.055 2.95 5.906 2.29 1.999 8.27 3.234 2.389 4.73 8.21 6.945 1.834 1.227 4.598 2.285 3.504 6.48 4.984 6.125 6.21 4.035 8.375 6.89 5.258 9.43 9.805 5.195 2.143 2.36 3.467 2.746 4.203 1.737 4.734 2.717 3.8 1.995 4.133 4.742 5.83 7.844 2.182 5.95 6.887 9.13 3.393 6.938 8.33 4.074 5.812 4.805 5.92 5.832 7.176 8.01 6.64 1.468 5.61 4.49 2.736 6.766 8.5 4.164 5.1 7.58 2.771 1.703 2.588 5.53 6.773 4.758 1.837 6.08 5.555 9.55 6.3 8.086 7.043 7.383 9.73 7.484 6.113 7.93 9.11 2.72 5.406 8.9 6.688 5.73 3.037 1.871 5.33 6.633 9.43 8.805 1.092 9.2 4.16 2.543 2.072 5.297 1.922 3.06 5.883 5.996 6.31 9.69 9.42 6.46 2.363 2.664 1.711 4.227 9.73 6.875 4.43 3.652 7.91 5.875 2.154 8.77 3.064 7.76 5.254 2.986 5.453 3.344 3.256 7.566 7.336 7.62 6.61 5.94 6.547 9.3 4.418 9.21 3.518 7.53 7.766 9.37 4.125 2.275 6.355 9.07 2.633 2.15 5.363 2.148 8.84 7.918 1.124 2.107 9.695 2.475 3.168 4.336 3.639 6.76 7.625 5.375 4.35 9.11 2.66 3.082 3.156 6.574 1.6875 5.285 5.984 3.71 7.324 8.7 1.902 6.883 3.38 2.812 5.52 4.355 7.883 2.424 2.033 1.163 3.502 9.7 4.53 4.086 1.8955 2.42 6.695 8.72 7.32 5.477 4.99 4.715 9.78 3.45 5.73 8.73 8.38 1.751 1.987 8.41 4.984 1.489 3.73 7.613 8.44 4.027 9.97 3.303 3.438 2.475 6.27 6.742 3.492 7.152 9.87 3.135 3.658 2.887 6.55 7.6 9.695 1.997 3.959 9.85 3.79 7.938 7.97 3.17 9.78 5.688 8.15 8.22 1.746 4.633 4.06 9.71 9.695 4. 3.314 7.56 8.56 3.45 8.52 5.39 6.332 6.883 1.269 1.232 3.148 3.582 8.33 1.179 1.37 5.297 4.66 7.285 1.086 2.473 3.51 7.28 4.13 8.37 2.441 5.73 7.496 5.31 8.76 2.38 7.348 7.453 2.664 2.328 9.93 1.119 8.766 6.395 5.965 5.99 4.6 2.154 1.278 4.074 3.883 6.617 6.05 2.447 2.256 8.63 6.348 7.816 1.547 1.743 8.94 9.414 9.49 9.625 8.21 1.641 1.308 5.79 3.178 6.17 4.094 4.812 6.434 1.946 5.64 7.957 7.75 1.073 8.33 7.105 4.39 5.98 7.53 6.05 1.823 2.086 5.5 6.71 8.33 8.29 3.584 7.684 5.766 2.354 6.78 1.824 9.97 8.51 6.58 6.43 6.21 6.4 4.367 4.406 2.604 4.33 1.739 8. 1.828 9.14 6.32 9.2 3.469 8.586 9.01 3.854 9.49 4.133 6.266 5.08 2.426 7.574 1.077 3.453 3.975 9.58 8.7 8.48 8.82 8.92 3.809 7.355 7.758 9.336 6.734 2.578 9.23 7.406 9.28 2.688 9.82 4.816 1.821 4.99 4.26 3.223 7.277 4.25 8.3 9.734 4.65 6.535 1.145 7.367 3.615 7.36 8.33 7.58 9.336 5.17 6.52 9.41 9.98 2.766 9.42 6.85 2.258 5.3 6.85 1.848 5.83 4.863 6.875 2.215 5.13 5.836 8.01 4.56 7.89 5.273 7.51 6.938 9.42 2.69 2.434 9.586 9.375 4.48 3.656 1.709 6.43 7.363 2.744 6.316 1.648 8.62 9.61 3.787 2.877 9.09 3.76 1.255 9.84 2.592 1.932 5.68 1.545 5.27 5.758 2.615 1.832 4.492 4.258 8.64 1.39 1.534 4.465 4.832 5.62 2.893 3.928 3.438 3.84 2.105 5.355 4.402 9.54 8.98 5.723 5.91 4.97 3.984 5.707 8.82 7.71 1.297 3.387 7.04 2.494 3.83 6.375 7.28 2.805 3.244 4.97 3.736 5.363 9.64 3.41 6.297 9.83 5.832 3.182 1.314 9.02 5.95 6.215 5.043 7.984 5.75 6.29 4.297 3.11 9.11 2.44 9.42 6.27 3.5 7.652 7.043 7.36 3.336 5.938 7.88 8.414 9.445 3.121 8.57 6.848 8.375 4.395 3.344 7.2 7.188 3.502 1.3955 7.113 8.17 7.625 7.375 9.43 4.996 8.82 7.47 9.01 9.914 6.05 3.867 8.87 2.713 1.194 7.246 1.3 6.07 3.338 9.37 8.98 4.402 8.414 9.91 4.273 5.07 6.832 8.1 5.79 4.207 7.098 6.89 4.875 8.1 5.562 1.795 1.216 6.06 7.05 8.46 8.6 4.18 9.55 9.17 4.832 4.348 5.11 1.57 3.262 2.871 7.586 6.89 1.491 5.07 8.516 5.453 7.027 8.75 2.98 8.14 1.939 3.496 9.13 6.695 9.88 6.918 8.11 2.334 3.172 2.023 5.71 5.73 8.93 7.59 7.676 6.156 4.63 9.3 9.85 7.64 3.037 7.844 1.864 8.86 8.95 3.492 5.094 3.98 8.734 5.7 8.83 4.83 8.77 3.256 1.446 9.57 7.24 1.619 4.305 2.613 8.52 1.942 4.51 1.763 7.008 2.906 3.297 2.9 6. 7.266 1.484 9.82 9.49 4.29 5.184 9.23 5.32 4.977 8.46 5.01 8.83 8.125 6.703 5.76 2.81 5.477 9.21 5.965 1.945 7.785 5.402 2.926 4.125 8.66 3.064 7.67 5.617 1.917 5.652 6.71 6.016 1.414 3.623 5.543 5.496 1.709 5.63 9.8 4.074 8.45 8.69 3.287 7.598 4.82 9.34 6.863 3.615 9.57 6.914 1.097 5.77 3.168 4.13 8.805 9.11 6.074 6.94 4.207 8.87 3.771 6.723 6.18 5.035 5.168 2.54 6.5 1.165 8.27 8.34 6.55 5.48 2.916 5.227 7.355 6.773 8.93 8.03 7.016 9.055 9.38 5.96 7.605 1.135 2.719 5.67 8.47 8.586 1.516 5.88 2.809 3.754 5.08 4.523 4.11 7.37 8.27 7.13 7.375 6.21 8.27 6.258 7.2 9.875 2.72 8.836 2.295 3.596 6.4 6.664 2.426 2.326 2.234 9.13 1.09 9.31 7.383 6.848 9.77 3.455 1.8955 6.52 7.934 3.096 2.916 4.414 7.7 6.53 7.883 5.312 3.621 4.26 2.764 7.105 2.695 8.88 3.555 8.23 2.025 3.723 1.196 9.31 6.984 5.156 7.996 7.68 2.73 5.074 5.566 6.027 8.49 2.867 8.15 2.607 4.12 8.26 2.084 5.19 2.662 2.92 6.574 9.516 4.066 3.162 4.785 6.754 1.17 3.25 9.29 6.49 1.221 7.5 7.5 7.176 7.355 4.605 7.17 3.082 4.1 4.17 7.3 2.621 5.188 7.848 9.62 6.586 4.727 8.49 2.406 5.637 2.627 2.666 1.433 4.594 4.88 4.914 3.025 8.05 9.22 9.14 7.965 9.93 5.695 1.479 4.594 3.604 7.51 7.13 7.61 4.164 8.8 3.176 4.48 5.414 4.88 2.848 7.9 5.734 2.412 6.234 6.13 2.422 7. 6.46 5.28 2.537 9.26 5.508 4.15 6.965 9.984 2.588 1.44 9.27 9.48 1.508 4.164 4.6 4.78 2.553 7.42 8.19 2.09 9.17 6.39 5.117 4.316 2.928 1.542 6.156 5.367 7.465 3.67 2.71 8.56 1.676 9.74 1.035 4.35 7.5 9.06 5.242 3.38 9.02 9.74 3.441 2.215 7.453 6.547 8.77 1.679 7.656 1.884 9.86 7.883 2.838 7.453 2.102 4.016 6.887 7.74 7.04 8.195 5.957 5.348 6.99 5.723 3.357 7.945 6.863 5.895 8.24 1.139 4.688 7.727 5.473 8.38 7.953 1.94 7.387 4.152 9.664 5.984 3.938 1.157 9.37 7.023 9.26 7.47 6.973 2.006 2.646 7.94 8.695 4.49 7.99 3.072 7.39 9.15 1.879 8.97 8.125 4.613 1.028 2.877 9.15 2.771 9.11 2.422 2.613 5.12 1.508 5.746 2.5 3.857 7.28 8.836 3.615 6.316 2.506 7.938 2.576 5.2 1.335 7.88 3.838 8.8 5.723 9.836 6.35 3.557 5.08 2.344 2.633 5.46 8.39 1.893 8.164 5.836 1.698 1.498 9.33 3.895 4.137 6.684 7.793 2.14 9.055 3.16 ] 输出数据(dst_gm): [1.092e+00 7.153e-06 1.124e+00 2.861e-06 1.073e+00 4.828e-06 1.145e+00 1.669e-06 1.194e+00 2.861e-06 1.097e+00 3.874e-06 1.090e+00 5.960e-08 1.028e+00 4.888e-06]