AllReduce
功能说明
集合通信算子AllReduce的任务下发接口,返回该任务的标识handleId给用户。AllReduce功能为:将通信域内所有节点的同名张量进行reduce操作后,再把结果发送到所有节点的输出buffer。
函数原型
1 2 |
template <bool commit = false> __aicore__ inline HcclHandle AllReduce(GM_ADDR sendBuf, GM_ADDR recvBuf, uint64_t count, HcclDataType dataType, HcclReduceOp op, uint8_t repeat = 1) |
参数说明
参数名 |
输入/输出 |
描述 |
---|---|---|
commit |
输入 |
bool类型。参数取值如下:
|
参数名 |
输入/输出 |
描述 |
---|---|---|
sendBuf |
输入 |
源数据buffer地址。 |
recvBuf |
输出 |
目的数据buffer地址,集合通信结果输出到此buffer中。 |
count |
输入 |
参与AllReduce操作的数据个数,比如只有一个int32数据参与,则count=1。 |
dataType |
输入 |
AllReduce操作的数据类型,目前支持float32、half(即float16) 、int8_t、int16_t、int32_t、bfloat16_t数据类型,即支持取值为HCCL_DATA_TYPE_FP32、HCCL_DATA_TYPE_FP16、HCCL_DATA_TYPE_INT8、HCCL_DATA_TYPE_INT16、HCCL_DATA_TYPE_INT32、HCCL_DATA_TYPE_BFP16。HcclDataType数据类型的介绍请参考表3。 |
op |
输入 |
Reduce的操作类型,目前支持sum、max、min操作类型,即支持取值为HCCL_REDUCE_SUM、HCCL_REDUCE_MAX、HCCL_REDUCE_MIN。HcclReduceOp数据类型的介绍请参考表4。 |
repeat |
输入 |
一次下发的AllReduce通信任务个数。repeat取值≥1,默认值为1。当repeat>1时,每个AllReduce任务的sendBuf和recvBuf地址由服务端自动算出,计算公式如下: sendBuf[i] = sendBuf + count* sizeof(datatype) * i, i∈[0, repeat) recvBuf[i] = recvBuf + count* sizeof(datatype) * i, i∈[0, repeat) 注意:当设置repeat>1时,须与count参数配合使用,规划通信数据地址。 |
返回值
返回该任务的标识handleId,handleId大于等于0。调用失败时,返回 -1。
支持的型号
Atlas A2训练系列产品/Atlas 800I A2推理产品
注意事项
- 调用本接口前确保已调用过Init接口
- 该接口只能在AI Cube核或者AI Vector核两者之一上调用
- 该接口只在0核上工作
- 一个通信域内,所有Prepare接口的总调用次数不能超过32
调用示例
- 非多轮切分场景
如下图所示,4张卡上均有count=300个float16数据,每张卡从xGM内存中获取到本卡数据,各卡的数据进行reduce sum计算后,将结果输出到各卡的yGM。
图2 非多轮切分场景下4卡AllReduce通信
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
extern "C" __global__ __aicore__ void all_reduce_custom(GM_ADDR xGM, GM_ADDR yGM) { auto sendBuf = xGM; // xGM为AllReduce的输入GM地址 auto recvBuf = yGM; // yGM为AllReduce的输出GM地址 uint64_t sendCount = 300; // 每张卡上均有300个float16的数据 HcclReduceOp reduceOp = HcclReduceOp::HCCL_REDUCE_SUM; GM_ADDR contextGM = GetHcclContext<HCCL_GROUP_ID_0>(); // 获取第0个通信域context Hccl hccl; if (g_coreType == AIV) { // 指定AIV核通信 hccl.Init(contextGM); HcclHandle handleId1 = hccl.AllReduce<true>(sendBuf, recvBuf, sendCount, HcclDataType::HCCL_DATA_TYPE_FP16, reduceOp); hccl.Wait(handleId1); SyncAll<true>(); // 全AIV核同步,防止0核执行过快,提前调用hccl.Finalize()接口,导致其他核Wait卡死 hccl.Finalize(); } }
- 多轮切分场景
使能多轮切分,等效处理上述非多轮切分示例的通信。如下图所示,每张卡的300个float16数据,被切分为2个首块数据,1个尾块数据。每个首块的数据量tileLen为128个float16数据,尾块的数据量tailLen为44个float16数据。在算子内部实现时,需要对切分后的数据分3轮进行AllReduce通信任务,将等效上述非多轮切分的通信结果。
图3 各卡数据切分示意图
具体实现为,第1轮通信,每个rank上0-0\1-0\2-0\3-0数据块进行AllReduce处理。第2轮通信,每个rank上0-1\1-1\2-1\3-1数据块进行AllReduce处理。第3轮通信,每个rank上0-2\1-2\2-2\3-2数据块进行AllReduce处理。第1轮通信的图示及代码示例如下。
图4 第一轮4卡AllReduce示意图
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29
extern "C" __global__ __aicore__ void all_reduce_custom(GM_ADDR xGM, GM_ADDR yGM) { constexpr uint32_t tileNum = 2U; // 首块数量 constexpr uint64_t tileLen = 128U; // 首块数据个数 constexpr uint32_t tailNum = 1U; // 尾块数量 constexpr uint64_t tailLen = 44U; // 尾块数据个数 auto sendBuf = xGM; // xGM为AllReduce的输入GM地址 auto recvBuf = yGM; // yGM为AllReduce的输出GM地址 HcclReduceOp reduceOp = HcclReduceOp::HCCL_REDUCE_SUM; GM_ADDR contextGM = GetHcclContext<HCCL_GROUP_ID_0>(); // 获取第0个通信域context Hccl hccl; if (g_coreType == AIV) { // 指定AIV核通信 hccl.Init(contextGM); // 2个首块处理 constexpr uint32_t tileRepeat = tileNum; // 除了sendBuf和recvBuf入参不同,对2个首块处理的其余参数相同。故使用repaet=2,第2个首块AllReduce任务的sendBuf、recvBuf将由API内部自行更新 HcclHandle handleId1 = hccl.AllReduce<true>(sendBuf, recvBuf, tileLen, HcclDataType::HCCL_DATA_TYPE_FP16, reduceOp, tileRepeat); // 1个尾块处理 constexper uint32_t kSizeOfFloat16 = 2U; sendBuf += tileLen * tileNum * kSizeOfFloat16; recvBuf += tileLen * tileNum * kSizeOfFloat16; constexpr uint32_t tailRepeat = tailNum; HcclHandle handleId2 = hccl.AllReduce<true>(sendBuf, recvBuf, tileLen, HcclDataType::HCCL_DATA_TYPE_FP16, reduceOp, tailRepeat); hccl.Wait(handleId1); hccl.Wait(handleId2); SyncAll<true>(); // 全AIV核同步,防止0核执行过快,提前调用hccl.Finalize()接口,导致其他核Wait卡死 hccl.Finalize(); } }