接口列表
TF Adapter提供的分布式优化器NPUDistributedOptimizer和npu_distributed_optimizer_wrapper可以让用户在不需要感知allreduce的情况下自动完成梯度聚合功能,实现数据并行训练方式。但为了能够同时满足用户灵活的使用方式,集合通信库HCCL提供了常用的rank管理、梯度切分功能、集合通信原型等接口。
相关概念
概念 |
介绍 |
---|---|
group |
group,指参与集合通信的进程组,包括:
|
rank |
group中的每个通信实体称为一个rank,每个rank都会分配一个介于0~n-1(n为NPU的数量)的唯一标识。 |
rank size |
|
rank id |
|
接口列表
HCCL为TensorFlow网络提供的Python API如表1所示。
- “rank管理”相关接口的定义在文件“${install_path}/python/site-packages/hccl/manage/api.py”中。
- “梯度切分”相关接口的定义在文件“${install_path}/python/site-packages/hccl/split/api.py”中。
- “集合通信”相关接口的定义在文件“${install_path}/python/site-packages/npu_bridge/hccl/hccl_ops.py”中。
接口 |
简介 |
---|---|
rank管理 |
|
创建集合通信用户自定义group。 |
|
销毁集合通信用户自定义group。 |
|
获取group内的rank数量(即Device数量)。 |
|
获取group内device所在服务器内的local rank数量。 |
|
获取device在group中对应的rank序号。 |
|
获取device在group中对应的local rank序号。 |
|
根据进程在group中的rank id,获取对应的world rank id。 |
|
从world rank id,获取该进程在group中的group rank id。 |
|
梯度切分 |
|
基于梯度的索引id,在集合通信group内设置反向梯度切分策略,实现allreduce的融合,用于进行集合通信的性能调优。 |
|
基于梯度数据量百分比,在集合通信group内设置反向梯度切分策略,实现allreduce的融合,用于进行集合通信的性能调优。 |
|
集合通信 |
|
集合通信算子AllReduce的操作接口,将group内所有节点的输入数据进行reduce操作后,再把结果发送到所有节点的输出buf,其中reduce操作类型由reduction参数指定。 |
|
集合通信算子AllGather的操作接口,将通信域内所有节点的输入按照rank id重新排序,然后拼接起来,再将结果发送到所有节点的输出。 |
|
集合通信算子Broadcast的操作接口,将通信域内root节点的数据广播到其他rank。 |
|
集合通信算子ReduceScatter的操作接口。将所有rank的输入相加(或其他归约操作)后,再把结果按照rank编号均匀分散的到各个rank的输出buffer,每个进程拿到其他进程1/ranksize份的数据进行归约操作。 |
|
集合通信算子Reduce的操作接口,将所有rank的数据相加(或其他归约操作)后,再把结果发送到root节点的指定位置上。 |
|
提供group内点对点通信发送数据的send功能。 |
|
提供group内点对点通信发送数据的receive功能。 |
|
集合通信域alltoallv操作接口。向通信域内所有rank发送数据(数据量可以定制),并从所有rank接收数据。 |
|
集合通信域alltoallvc操作接口。向通信域内所有rank发送数据(数据量可以定制),并从所有rank接收数据。 alltoallvc通过输入参数send_count_matrix传入所有rank的收发参数,与alltoallv相比,性能更优。 |