aclmdlLoadFromFileWithMem
函数功能
从文件加载离线模型数据(适配昇腾AI处理器的离线模型),由用户自行管理模型运行的内存,同步接口。
系统完成模型加载后,返回的模型ID,作为后续操作时用于识别模型的标志。
约束说明
模型加载、模型执行、模型卸载的操作必须在同一个Context下(关于Context的创建请参见aclrtCreateContext)。在加载前,请先根据模型文件的大小评估内存空间是否足够,内存空间不足,会导致应用程序异常。
函数原型
aclError aclmdlLoadFromFileWithMem(const char *modelPath, uint32_t *modelId, void *workPtr, size_t workSize, void *weightPtr, size_t weightSize)
参数说明
参数名 |
输入/输出 |
说明 |
---|---|---|
modelPath |
输入 |
离线模型文件路径的指针,路径中包含文件名。运行程序(APP)的用户需要对该存储路径有访问权限。 此处的离线模型文件是适配昇腾AI处理器的离线模型,即*.om文件。 说明:
关于如何获取om文件,请参见模型构建。 对om模型文件大小有限制的场景下,如果使用ATC工具生成om文件时,将--external_weight参数设置为1(1表示将原始网络中的Const/Constant节点的权重保存在单独的文件中,且该文件保存在与om文件同级的weight目录下),那么在使用本接口加载om文件时,需将weight目录与om文件放在同级目录下,这时AscendCL会自行到weight目录下查找权重文件,否则可能会导致单独的权重文件加载不成功。 |
modelId |
输出 |
模型ID的指针。 系统成功加载模型后会返回的模型ID。 |
workPtr |
输入 |
Device上模型所需工作内存(存放模型执行过程中的临时数据)的地址指针,由用户自行管理,模型执行过程中不能释放该内存。 如果在workPtr参数处传入空指针,表示由系统管理内存。 说明:
由用户自行管理工作内存时,如果多个模型串行执行,支持共用同一个工作内存,但用户需确保模型的串行执行顺序、且工作内存的大小需按多个模型中最大工作内存的大小来申请,例如通过以下方式保证串行:
|
workSize |
输入 |
模型所需工作内存的大小,单位Byte。workPtr为空指针时无效。 |
weightPtr |
输入 |
Device上模型权值内存(存放权值数据)的地址指针,由用户自行管理,模型执行过程中不能释放该内存。 如果在weightPtr参数处传入空指针,表示由系统管理内存。 说明:
由用户自行管理权值内存时,在多线程场景下,对于同一个模型,如果在每个线程中都加载了一次,支持共用weightPtr,因为weightPtr内存在推理过程中是只读的。此处需注意,在共用weightPtr期间,不能释放weightPtr。 |
weightSize |
输入 |
模型所需权值内存的大小,单位Byte。weightPtr为空指针时无效。 |
返回值说明
返回0表示成功,返回其它值表示失败。
相关接口
当前AscendCL还提供了aclmdlSetConfigOpt接口、aclmdlLoadWithConfig接口来实现模型加载,通过配置对象中的属性来区分,在加载模型时是从文件加载,还是从内存加载,以及内存是由系统内部管理,还是由用户管理。