下载
中文
注册
我要评分
文档获取效率
文档正确性
内容完整性
文档易理解
在线提单
论坛求助
昇腾小AI

函数:execute

C函数原型

aclError aclmdlExecute(uint32_t modelId, const aclmdlDataset *input, aclmdlDataset *output)

Python函数

ret = acl.mdl.execute(model_id, input, output)

函数功能

执行模型推理,直到返回推理结果。

输入说明

model_id:int,指定需要执行推理的模型的ID。

可在以下接口成功加载模型后获取到模型ID。

input:int,模型推理的输入数据对应的指针地址,具体请参见aclmdlDataset

output:int,模型推理的输出数据对应的指针地址,具体请参见aclmdlDataset

调用acl.create_data_buffer接口创建存放对应index输出数据的aclDataBuffer类型时,可通过“data”参数处传入0,同时设置“size”为0,创建一个空的aclDataBuffer类型,在模型执行过程中,系统内部自行计算并申请该index输出的内存。

使用该方式可节省内存,但在内存数据使用结束后,需由用户释放内存并重置aclDataBuffer,并且系统内部在申请内存时涉及内存拷贝,可能涉及性能损耗。

释放内存并重置aclDataBuffer的示例代码如下:

data_buffer = acl.mdl.get_dataset_buffer(output, 0) // 根据index获取对应的dataBuffer        
data_addr = acl.get_data_buffer_addr(data_buffer) // 获取data的Device指针地址
acl.rt.free(data_addr) // 释放Device内存
acl.update_data_buffer(data_buffer, 0, 0) // 重置dataBuffer,以便下次推理

返回值说明

ret:int,错误码。

  • 返回0表示成功。
  • 返回其它值表示失败。

约束说明

  • 若由于业务需求,必须在多线程中使用同一个“model_id”,则用户线程间需加锁,保证刷新输入输出内存、保证执行是连续操作,例如:
    // 线程A的接口调用顺序:
    lock(handle1) -> acl.rt.memcpy刷新输入输出内存 -> acl.mdl.execute执行推理 -> unlock(handle1)
    
    // 线程B的接口调用顺序:
    lock(handle1) -> acl.rt.memcpy刷新输入输出内存 -> acl.mdl.execute执行推理 -> unlock(handle1)
  • 模型加载、模型执行、模型卸载的操作必须在同一个Context下(关于Context的创建请参见acl.rt.create_context)。
  • 存放模型输入/输出数据的内存,可以使用以下接口申请:acl.rt.mallocacl.rt.malloc_hostacl.rt.malloc_cached接口、acl.media.dvpp_malloc接口或acl.himpi.dvpp_malloc接口。

    其中:

    • 内存申请接口的具体使用场景及约束请参见相关接口的详细说明。
    • 当pyACL应用程序在Device上调用acl.rt.malloc_host接口申请内存时,该内存为Device内存。
    • acl.media.dvpp_malloc接口和acl.himpi.dvpp_malloc接口是媒体数据处理功能专用的内存申请接口,一般从性能角度,为了减少拷贝,媒体数据处理的输出作为模型推理的输入,实现内存复用。
    • 由于硬件对内存有对齐和补齐要求,若用户使用这些接口申请大块内存并自行划分、管理内存时,需满足对应接口的对齐和补齐约束,请参见内存二次分配管理

参考资源

接口调用流程及示例代码,参见模型执行

搜索结果
找到“0”个结果

当前产品无相关内容

未找到相关内容,请尝试其他搜索词