mxpi_tensorinfer
功能描述 |
对输入的张量进行推理。 |
---|---|
同步/异步(status) |
同步 |
约束限制 |
无 |
插件基类(factory) |
mxpi_tensorinfer |
输入和输出 |
|
端口格式(caps) |
|
属性 |
请参见表1。 |
属性名 |
描述 |
是否为必选项 |
是否可修改 |
---|---|---|---|
modelPath |
指定推理模型OM文件路径。最大只支持至4G大小的模型,并且模型要求属主为当前用户,权限不大于“640”。 |
是 |
是 |
outputDeviceId |
不使用后处理so时,内存拷贝到outputDeviceId所指定位置。
|
否 |
是 |
waitingTime |
多batch模型可容忍的等待组BATCH时间,超过此时间则结束等待自动完成推理,默认为5000ms。 |
否 |
是 |
dynamicStrategy |
动态Batch推理情形下,选取合适batchsize所采用的策略。默认为"Nearest"。
|
否 |
是 |
singleBatchInfer |
单batch推理开关。布尔型,默认为0。
|
否 |
是 |
outputHasBatchDim |
模型输出维度是否具有batch维,如果没有,推理插件会自动为输出张量增加batch维,布尔型,默认值为1。
|
否 |
是 |
skipModelCheck |
跳过模型数据输入校验。 |
否 |
否 |
示例
插件会等待前面所有插件发送的数据都到达后,进入Process接口(即同步模式SYNC),对其中的MxpiTensorPackageList(或MxpiVisionList)进行组装,若组装后的张量与模型输入张量一致,则开启推理,并将推理结果输出到输出端口。
pipeline样例:
"mxpi_tensorinfer0": {
"props": {
"dataSource": "appsrc0,appsrc1,appsrc2",
"modelPath": "../models/bert/bert.om"
},
"factory": "mxpi_tensorinfer",
"next": "mxpi_classpostprocessor0"
},

在使用推理结果进行精度测试时,模型推理前的预处理方式需要优先按照所用模型训练时使用的预处理方式,包括但不限于缩放方式、缩放时插值方式、抠图方式、对齐方式等。
父主题: 推理插件