下载
中文
注册

mxpi_modelinfer

从当前版本不再演进,建议使用mxpi_tensorinfer插件。

功能描述

目标分类或检测。

约束限制

目前只支持单Tensor输入(图像数据)的推理模型。

插件基类(factory)

mxpi_modelinfer

输入和输出

  • 输入:buffer(数据类型“MxpiBuffer”)、metadata(数据类型“MxpiVisionList”)。
  • 输出:buffer(数据类型“MxpiBuffer”)、metadata(数据类型“MxpiObjectList”,“MxpiClassList”,“MxpiAttributeList”,“MxpiFeatureVectorList”,或“MxpiTensorPackageList”(不使用后处理情况下)。

端口格式(caps)

  • 静态输入:{"image/yuv"}。
  • 静态输出:{"metadata/object", "metadata/class", "metadata/attribute", "metadata/feature-vector", "metadata/tensor"}。

属性

请参见表1

表1 mxpi_modelinfer插件的属性

属性名

描述

是否为必选项

是否可修改

modelPath

指定推理模型om文件路径。最大只支持至4G大小的模型,并且模型要求属主为当前用户,权限不大于“640”

postProcessConfigPath

后处理配置文件路径。

postProcessConfigContent

后处理配置。

labelPath

后处理类别标签路径。

parentName

输入数据对应索引(通常情况下为上游元件名称),功能与dataSource一致,建议使用dataSource。本属性后续版本会删除。

请勿使用

dataSource

输入数据对应索引(通常情况下为上游元件名称),默认为上游插件对应输出端口的key值。

postProcessLibPath

后处理动态链接库so文件路径。如果不指定,则不进行后处理,直接将模型推理结果写入元数据MxpiTensorPackageList并将内存拷贝到outputDeviceId指定位置。

deviceId

使用的Ascend设备的芯片编号,无需自己设置,统一由stream_config字段中的deviceId属性设置。

tensorFormat

值为0时采用NHWC,值为1时采用NCHW,默认为0。

pictureCropName

是否需要先将模型推理的坐标映射回抠图前的原图上。不设置该属性的默认情况下不映射到原图上。如需要映射,则输入对应的抠图插件名称。

waitingTime

多batch模型可容忍的等待组BATCH时间,超过此时间则结束等待自动完成推理,默认为5000 ms。

outputDeviceId

不使用后处理so时,内存拷贝到outputDeviceId所指定位置。若需拷贝至Host侧,设为-1;若需拷贝至Device侧,当前仅支持填写stream_config字段中的deviceId。

dynamicStrategy

动态Batch推理情形下,选取合适batchsize所采用的策略。默认为"Nearest"。

  • "Nearest"策略:选取与缓存图片数量差值的绝对值最接近的batchsize(绝对值相等取较大者)。
  • "Upper"策略:取大于或等于缓存图片数量的最小batchsize。
  • "Lower"策略:取小于或等于缓存图片数量的最大batchsize。

程序限制上限“batchSize”“128”,请根据模型“batchSize”合理设置待推理的图片数量,输入图片超过模型最大“batchSize”时,多出的图片不会进行推理。

checkImageAlignInfo

图像对齐高宽检验,值为string,默认为“on”(需要校验),如需关闭填写“off”

  • parentName是为了兼容之前版本,后续建议使用dataSource,两者使用方式相同,使用时只能选其一。
  • postProcessConfigContent和postProcessConfigPath两个属性的目的都是获取后处理的配置内容,不同点在于一个是直接将内容写出来,另一个是以文件的形式给出,实际使用中只用使用其中一个属性即可。

模型后处理介绍

详细内容见模型后处理类参考(modelinfer框架)