动态Batch(设置Batch档位)

基本原理

若模型推理时包含动态Batch特性,在模型推理时,需调用AscendCL提供的接口设置模型推理时需使用的batch size,模型支持的batch size已提前在构建模型时配置(使用ATC工具的dynamic_batch_size参数)。

ATC工具的参数说明请参见ATC工具使用指南

  • 对同一个模型,aclmdlSetDynamicBatchSize接口、aclmdlSetDynamicHWSize接口和aclmdlSetInputDynamicDims接口,只能调用其中一个接口。
  • 申请模型推理的输出内存时,可以按照各档位的实际大小申请内存,也可以调用aclmdlGetOutputSizeByIndex接口获取内存大小后再申请内存(建议使用该方式,确保内存足够)。
  • 动态AIPP和动态Batch同时使用时:
    • 调用aclmdlCreateAIPP接口设置batchSize时,batchSize要设置为最大batch size。
    • 模型中需要进行动态AIPP处理的data节点,其对应的输入内存大小需按照最大Batch来申请。

示例代码

调用接口后,需增加异常处理的分支,并记录报错日志、提示日志,此处不一一列举。以下是关键步骤的代码示例,不可以直接拷贝编译运行,仅供参考。

// 1.模型加载,加载成功后,再设置动态Batch
// ......

// 2.准备模型描述信息modelDesc_,准备模型的输入数据input_和模型的输出数据output_
// ......

// 3.自定义函数,设置动态Batch
int  ModelSetDynamicInfo()
{
        size_t index;
        // 3.1 获取动态Batch输入的index,标识动态Batch输入的输入名称固定为ACL_DYNAMIC_TENSOR_NAME
        aclError ret = aclmdlGetInputIndexByName(modelDesc_, ACL_DYNAMIC_TENSOR_NAME, &index);
        // 3.2 设置Batch
        // modelId_表示加载成功的模型的ID,input_表示aclmdlDataset类型的数据,index表示标识动态Batch输入的输入index,batchSize表示Batch数(此处以8为例)
        uint64_t batchSize = 8;
        ret = aclmdlSetDynamicBatchSize(modelId_, input_, index, batchSize);
        // ......
}

// 4.自定义函数,执行模型
int ModelExecute(int index)
{
        aclError ret;
        // 4.1 调用自定义函数,设置动态Batch
	ret = ModelSetDynamicInfo();
        // 4.2 执行模型,modelId_表示加载成功的模型的ID,input_和output_分别表示模型的输入和输出
        ret = aclmdlExecute(modelId_, input_, output_);
        // ......
}
// 5.处理模型推理结果
// TODO

相关资源

通过在线视频课程学习该功能,请参见CANN应用开发高级