reduce_scatter
函数原型
def reduce_scatter(tensor, reduction, rank_size, group = "hccl_world_group", fusion=0, fusion_id=-1)
功能说明
集合通信算子ReduceScatter的操作接口。将所有rank的输入相加(或其他操作)后,再把结果按照rank编号均匀分散的到各个rank的输出buffer,每个进程拿到其他进程1/ranksize份的数据进行归约操作。
参数说明
参数名 |
输入/输出 |
描述 |
---|---|---|
tensor |
输入 |
TensorFlow的tensor类型。 针对Atlas 训练系列产品,tensor支持的数据类型为:int8、int32、int64、float16、float32。 针对Atlas 300I Duo 推理卡,支持的数据类型为:int8、int16、int32、float16、float32。 针对Atlas A2 训练系列产品,tensor支持的数据类型为:int8、int16、int32、int64、float16、float32、bfp16。 需要注意tensor的第一个维度的元素个数必需是rank size的整数倍。 |
reduction |
输入 |
String类型。 reduce的op类型,可以为max、min、prod和sum。
说明:
针对Atlas 300I Duo 推理卡,当前版本“prod”、“max”、“min”操作不支持int16数据类型。 针对Atlas A2 训练系列产品,当前版本“prod”操作不支持int16、bfp16数据类型。 |
rank_size |
输入 |
int类型。 group内device的数量。 最大值:32768。 |
group |
输入 |
String类型,最大长度为128字节,含结束符。 group名称,可以为用户自定义group或者"hccl_world_group"。 |
fusion |
输入 |
int类型。 reducescatter算子融合标识,支持以下取值:
默认值为“0”。 |
fusion_id |
输入 |
reducescatter算子的融合id。 对相同fusion_id的reducescatter算子进行融合。 |
返回值
tensor:对输入tensor执行完reducescatter操作之后的结果tensor。建议返回tensor的数据量为32Byte对齐,否则会导致性能下降。
约束说明
- 调用该接口的rank必须在当前接口入参group定义的范围内,不在此范围内的rank调用该接口会失败。
- 该接口要求输入tensor的数据量不超过8GB。
支持的型号
Atlas 训练系列产品
Atlas 300I Duo 推理卡
Atlas A2 训练系列产品
调用示例
1 2 3 |
from npu_bridge.npu_init import * rank_size = 2 result = hccl_ops.reduce_scatter(tensor, "sum", rank_size) |