下载
中文
注册
我要评分
文档获取效率
文档正确性
内容完整性
文档易理解
在线提单
论坛求助
昇腾小AI

函数:execute_async

C函数原型

aclError aclmdlExecuteAsync(uint32_t modelId, const aclmdlDataset *input, aclmdlDataset *output, aclrtStream stream)

Python函数

ret = acl.mdl.execute_async(model_id, input, output, stream)

函数功能

执行模型推理,异步接口。

输入说明

model_id:int,指定需要执行推理的模型的ID。

可在以下接口成功加载模型后获取到模型ID。

input:int,模型推理的输入数据的指针地址,具体请参见aclmdlDataset

output:int,模型推理的输出数据的指针地址,具体请参见aclmdlDataset

stream:int,指定已创建的Stream指针地址,如需指定新的Stream,可通过acl.rt.create_stream等接口创建并获取Stream指针地址。

返回值说明

ret:int,错误码。

  • 返回0表示成功。
  • 返回其它值表示失败。

约束说明

  • 该接口是异步接口,调用接口成功仅表示任务下发成功,不表示任务执行成功。调用该接口后,需调用同步等待接口(例如,acl.rt.synchronize_stream)确保任务已执行完成。
  • 对同一个“model_id”的模型,不可通过acl.mdl.execute_async接口执行多Stream并发场景下的模型推理。
  • 如需在多线程中使用同一个“model_id”,则用户线程间需加锁,保证刷新输入输出内存、保证执行是连续操作,例如:
    // 线程A的接口调用顺序:
    lock(handle1) -> acl.rt.memcpy_async(stream1)刷新输入输出内存 -> acl.mdl.execute_async(modelId1,stream1)执行推理 -> unlock(handle1)
    
    // 线程B的接口调用顺序:
    lock(handle1) -> acl.rt.memcpy_async(stream1)刷新输入输出内存 -> acl.mdl.execute_async(modelId1,stream1)执行推理 -> unlock(handle1)
  • 模型加载、模型执行、模型卸载的操作必须在同一个Context下(关于Context的创建请参见acl.rt.create_context)。
  • 存放模型输入/输出数据的内存,可以使用以下接口申请:acl.rt.mallocacl.rt.malloc_hostacl.rt.malloc_cached接口、acl.media.dvpp_malloc接口或acl.himpi.dvpp_malloc接口。

    其中,acl.media.dvpp_malloc接口和acl.himpi.dvpp_malloc接口是媒体数据处理功能专用的内存申请接口,一般从性能角度,为了减少拷贝,媒体数据处理的输出作为模型推理的输入,实现内存复用。

    由于硬件对内存有对齐和补齐要求,若用户使用这些接口申请大块内存并自行划分、管理内存时,需满足对应接口的对齐和补齐约束,具体请参见内存二次分配管理

参考资源

搜索结果
找到“0”个结果

当前产品无相关内容

未找到相关内容,请尝试其他搜索词