昇腾社区首页
中文
注册

aclnnGroupedMatMulAllReduce

支持的产品型号

  • Atlas A2训练系列产品/Atlas 800I A2推理产品。

接口原型

每个算子分为两段式接口,必须先调用“aclnnGroupedMatMulAllReduceGetWorkspaceSize”接口获取入参并根据计算流程计算所需workspace大小,再调用“aclnnGroupedMatMulAllReduce”接口执行计算。

  • aclnnStatus aclnnGroupedMatMulAllReduceGetWorkspaceSize(const aclTensorList* x, const aclTensorList* weight, const aclTensorList* bias, const aclIntArray* groupListOptional, int64_t splitItem, const char* group, const char* reduceOp, int64_t commTurn, int64_t streamMode, const aclTensorList* y, uint64_t* workspaceSize, aclOpExecutor** executor)
  • aclnnStatus aclnnGroupedMatMulAllReduce(void* workspace, uint64_t workspaceSize, aclOpExecutor* executor, aclrtStream stream)

功能描述

  • 算子功能:在grouped_matmul的基础上实现多卡并行AllReduce的功能.实现分组矩阵乘计算,每组矩阵乘的维度大小可以不同。根据x、weight、y的Tensor数量支持如下4种场景:
    • x、weight、y的Tensor数量等于组数,即每组的数据对应的Tensor是独立的。
    • x的Tensor数量为1,weight/y的Tensor数量等于组数,此时需要通过可选参数group_list说明x在行上的分组情况,如group_list[0]=10说明x的前10行参与第一组矩阵乘计算。
    • x、weight的Tensor数量等于组数,y的Tensor数量为1,此时每组矩阵乘的结果放在同一个Tensor中连续存放。
    • x、y的Tensor数量为1,weight数量等于组数,属于前两种情况的组合。
  • 计算公式:
    • 非量化场景:
    yi=xi×weighti+biasiy_i=x_i\times weight_i + bias_i

aclnnGroupedMatMulAllReduceGetWorkspaceSize

  • 参数说明:

    • x(aclTensorList*,计算输入):必选参数,Device侧的aclTensorList,公式中的输入x,数据类型支持FLOAT16、BFLOAT16,数据格式支持ND,支持的最大长度为64个。
    • weight(aclTensorList*,计算输入):必选参数,Device侧的aclTensorList,公式中的weight,数据类型支持FLOAT16、BFLOAT16,数据格式支持ND,支持的最大长度为64个。
    • bias(aclTensorList*,计算输入)可选参数,Device侧的aclTensorList,公式中的bias,数据类型支持FLOAT16、FLOAT32,数据格式支持ND,支持的最大长度为64个。
    • groupListOptional(aclIntArray*,计算输入):可选参数,Host侧的aclIntArray类型,代表输入和输出M方向的matmul大小分布,数据类型支持INT64,数据格式支持ND,支持的最大长度为64个。
    • splitItemOptional(int64_t,计算输入):可选属性,代表输入和输出是否要做tensor切分,0代表输入和输出都不用切分;1代表输入需要切分,输出不需要切分;2代表输入不需要切分,输出需要切分;3代表输入和输出都需要切分,默认值为0。
    • group(char*,计算输入):Host侧标识列组的字符串。通信域名称。数据类型支持:string。通过Hccl提供的接口获取:extern HcclResult HcclGetCommName(HcclComm comm, char* commName); commName即为group。
    • reduceOp(char*,计算输入):reduce操作类型。数据类型支持:String。当前版本仅支持输入"sum"。
    • commTurn(int64_t,计算输入):Host侧的整型,通信数据切分数,即总数据量/单次通信量。数据类型支持:int64_t。当前版本仅支持输入0。
    • streamMode(int64_t,计算输入):Host侧的整型,acl流模式的枚举,当前只支持值1,类型支持:int64_t。
    • y(aclTensorList*,计算输出):Device侧的aclTensorList,公式中的输出y,数据类型支持FLOAT16、BFLOAT16,数据格式支持ND,支持的最大长度为64个。
    • workspaceSize(uint64_t*,出参):返回需要在Device侧申请的workspace大小。
    • executor(aclOpExecutor**,出参):返回op执行器,包含了算子计算流程。
  • 返回值:

    返回aclnnStatus状态码,具体参见undefined

    说明: 第一段接口完成入参校验,若出现以下错误码,则对应原因为:

    • 返回161001(ACLNN_ERR_PARAM_NULLPTR):如果传入参数是必选输入、输出或者必选属性,且是空指针。
    • 返回161002(ACLNN_ERR_PARAM_INVALID):x、weight、bias、scale、offset、antiquant_scale、antiquant_offset、groupListOptional、splitItemOptional、y的数据类型和数据格式不在支持的范围内;x的长度不等于1且不等于weight的长度;如bias不为空,bias的长度不等于weight的长度;splitItemOptional为1的场景,x的长度不等于1;splitItemOptional为2的场景,y的长度不等于1;splitItemOptional为1、3的场景,x和y的长度不等于1;reduceOp不等于“sum”;commTurn不等于0;streamMode不等于1。

aclnnGroupedMatMulAllReduce

  • 参数说明:

    • workspace(void*,入参):在Device侧申请的workspace内存地址。
    • workspaceSize(uint64_t,入参):在Device侧申请的workspace大小,由第一段接口aclnnGroupedMatMulAllReduceGetWorkspaceSize获取。
    • executor(aclOpExecutor*,入参):op执行器,包含了算子计算流程。
    • stream(aclrtStream,入参):指定执行任务的AscendCL stream流。
  • 返回值:

    返回aclnnStatus状态码,具体参见undefined

约束与限制

  1. x、weight、bias三个输入支持多种数据类型,此算子支持的数据类型组合为 “x-FLOAT16、weight-FLOAT16、bias-FLOAT16”,“x-BFLOAT16、weight-BFLOAT16、bias-FLOAT32”。
  2. 当splitItemOptional为0时,x支持输入维度为2维-6维,y支持输入维度为2维-6维;当splitItemOptional为1/2/3时,x支持输入维度为2维,y支持输入维度为2维;splitItemOptional为0/1/2/3时,weight支持输入维度为2维。
  3. 支持2、4、8卡。
  4. x和weight中每一组tensor的最后一维大小都应小于65536。xix_i的最后一维指当属性transpose_x为false时xix_i的K轴或当transpose_x为true时xix_i的M轴。weightiweight_i的最后一维指当属性transpose_weight为false时weightiweight_i的N轴或当transpose_weight为true时weightiweight_i的K轴。
  5. x和weight中每一组tensor的每一维大小在32字节对齐后都应小于int32的最大值2147483647。

调用示例

示例代码如下,仅供参考,具体编译和执行过程请参考undefined

[object Object]