若模型推理时包含动态Batch特性,在模型推理时,需调用AscendCL提供的接口设置模型推理时需使用的batch size,模型支持的batch size已提前在构建模型时配置(使用ATC工具的dynamic_batch_size参数)。
ATC工具的参数说明请参见《ATC工具使用指南》。
调用接口后,需增加异常处理的分支,并记录报错日志、提示日志,此处不一一列举。以下是关键步骤的代码示例,不可以直接拷贝编译运行,仅供参考。
// 1.模型加载,加载成功后,再设置动态Batch // ...... // 2.准备模型描述信息modelDesc_,准备模型的输入数据input_和模型的输出数据output_ // ...... // 3.自定义函数,设置动态Batch int ModelSetDynamicInfo() { size_t index; // 3.1 获取动态Batch输入的index,标识动态Batch输入的输入名称固定为ACL_DYNAMIC_TENSOR_NAME aclError ret = aclmdlGetInputIndexByName(modelDesc_, ACL_DYNAMIC_TENSOR_NAME, &index); // 3.2 设置Batch // modelId_表示加载成功的模型的ID,input_表示aclmdlDataset类型的数据,index表示标识动态Batch输入的输入index,batchSize表示Batch数(此处以8为例) uint64_t batchSize = 8; ret = aclmdlSetDynamicBatchSize(modelId_, input_, index, batchSize); // ...... } // 4.自定义函数,执行模型 int ModelExecute(int index) { aclError ret; // 4.1 调用自定义函数,设置动态Batch ret = ModelSetDynamicInfo(); // 4.2 执行模型,modelId_表示加载成功的模型的ID,input_和output_分别表示模型的输入和输出 ret = aclmdlExecute(modelId_, input_, output_); // ...... } // 5.处理模型推理结果 // TODO
通过在线视频课程学习该功能,请参见CANN应用开发高级。