动态Batch
基本原理
若模型推理时包含动态Batch特性,在模型推理时,需调用pyACL提供的接口设置模型推理时需使用的Batch数,模型支持的Batch数已提前在构建模型时配置(使用ATC工具的“dynamic_batch_size”参数)。
- 对同一个模型,acl.mdl.set_dynamic_batch_size接口、acl.mdl.set_dynamic_hw_size接口和acl.mdl.set_input_dynamic_dims接口,只能调用其中一个接口。
- 申请模型推理的输出内存时,可以按照各档位的实际大小申请内存,也可以调用acl.mdl.get_output_size_by_index接口获取内存大小后再申请内存(建议使用该方式,确保内存足够)。
- 动态AIPP和动态Batch同时使用时:
- 调用acl.mdl.create_aipp接口设置“batchSize”时,“batchSize”要设置为最大Batch数。
- 模型中需要进行动态AIPP处理的data节点,其对应的输入内存大小需按照最大Batch来申请。
示例代码
调用接口后,需增加异常处理的分支,并记录报错日志、提示日志,此处不一一列举。以下是关键步骤的代码示例,不可以直接拷贝运行,仅供参考。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 |
# 1.模型加载,加载成功后,再设置动态Batch。 # ...... # 2.创建aclmdlDataset类型的数据,用于描述模型的输入数据input、输出数据output。 # ...... # 3.自定义函数,设置动态Batch。 def model_set_dynamicinfo(): # 3.1 获取动态Batch输入的index,标识动态Batch输入的输入名称固定为“ascend_mbatch_shape_data”。 index, ret = acl.mdl.get_input_index_by_name(model_desc, "ascend_mbatch_shape_data") # 3.2 设置Batch,model_id表示加载成功的模型的ID,input表示aclmdlDataset类型的数据,index表示标识动态Batch输入的输入index。 batchSize = 8 ret = acl.mdl.set_dynamic_batch_size(model_id_, input, index, batch_size) # ...... # 4.自定义函数,执行模型。 def model_execute(index): # 4.1 调用自定义函数,设置动态Batch。 ret = model_set_dynamicinfo() # 4.2 执行模型,model_id表示加载成功的模型的ID,input和output分别表示模型的输入和输出。 ret = acl.mdl.execute(model_id, input, output) # ...... } # 5.处理模型推理结果。 # ...... |
父主题: 模型动态推理