aclmdlExecute
函数功能
执行模型推理,直到返回推理结果。
约束说明
- 若由于业务需求,必须在多线程中使用同一个modelId,则用户线程间需加锁,保证刷新输入输出内存、保证执行是连续操作,例如:
// 线程A的接口调用顺序: lock(handle1) -> aclrtMemcpy刷新输入输出内存 -> alcmdlExecute执行推理 -> unlock(handle1) // 线程B的接口调用顺序: lock(handle1) -> aclrtMemcpy刷新输入输出内存 -> alcmdlExecute执行推理 -> unlock(handle1)
- 模型加载、模型执行、模型卸载的操作必须在同一个Context下(关于Context的创建请参见aclrtSetDevice或aclrtCreateContext)。
- 存放模型输入/输出数据的Device内存,可以使用以下接口申请:aclrtMalloc、或aclrtMallocHost、或aclrtMallocCached接口、或acldvppMalloc接口、或hi_mpi_dvpp_malloc接口。
其中:
- 各内存申请接口的使用场景、使用约束请参见各内存申请接口的说明。
- aclrtMallocHost接口仅在如下场景才能申请Device内存:仅当AscendCL应用程序在Device上运行时,申请的才是Device内存。
- acldvppMalloc接口和hi_mpi_dvpp_malloc接口是媒体数据处理功能专用的内存申请接口,一般从性能角度,为了减少拷贝,媒体数据处理的输出作为模型推理的输入,实现内存复用。
- 由于硬件对内存有对齐和补齐要求,若用户使用这些接口申请大块内存并自行划分、管理内存时,需满足对应接口的对齐和补齐约束,请参见内存二次分配管理。
函数原型
aclError aclmdlExecute(uint32_t modelId, const aclmdlDataset *input, aclmdlDataset *output)
参数说明
参数名 |
输入/输出 |
说明 |
---|---|---|
modelId |
输入 |
指定推理模型的ID。 调用模型加载接口(例如aclmdlLoadFromFile接口、aclmdlLoadFromMem等)成功后,会返回模型ID,该ID作为本接口的输入。 |
input |
输入 |
模型推理的输入数据的指针。 |
output |
输出 |
模型推理输出数据的指针。 调用aclCreateDataBuffer接口创建存放对应index输出数据的aclDataBuffer类型时,支持在data参数处传入nullptr,同时size需设置为0,表示创建一个空的aclDataBuffer类型,然后在模型执行过程中,系统内部自行计算并申请该index输出的内存。使用该方式可节省内存,但内存数据使用结束后,需由用户释放内存并重置aclDataBuffer,同时,系统内部申请内存时涉及内存拷贝,可能涉及性能损耗。 释放内存并重置aclDataBuffer的示例代码如下: aclDataBuffer *dataBuffer = aclmdlGetDatasetBuffer(output, 0); // 根据index获取对应的dataBuffer void *data = aclGetDataBufferAddr(dataBuffer); // 获取data的Device指针 aclrtFree(data ); // 释放Device内存 aclUpdateDataBuffer(dataBuffer, nullptr, 0); // 重置dataBuffer里面内容,以便下次推理 |
返回值说明
返回0表示成功,返回其它值表示失败。
父主题: 模型执行