下载
中文
注册
我要评分
文档获取效率
文档正确性
内容完整性
文档易理解
在线提单
论坛求助
昇腾小AI

RunPromptAsync

函数功能

异步执行全量图。

函数原型

ge::Status RunPromptAsync(const LLMReq &req, const std::vector<ge::Tensor> &inputs, ge::RunAsyncCallback callback, uint64_t model_id = 0UL);

参数说明

参数名

输入/输出

描述

req

输入

当前执行的请求。类型为LLMReq

如果需要使用公共前缀进行全量推理,请按照如下步骤操作。

  1. 通过PreloadPromptPrefix预加载公共前缀。
  2. 通过LLMReq提供的SetPrefixId中设置prefix_id。
  3. 进行全量推理。

inputs

输入

计算图输入Tensor,为Host上分配的内存空间。

callback

输入

回调函数。用户用来处理输出的函数。

model_id

输入

模型ID,默认为0。

返回值

请求入队成功。

异常处理

无。

约束说明

必须先做初始化后才能调用。

只能在LLM_OPTION_ROLE为Prompt的时候调用,否则会报错。

只能在LLM_OPTION_BATCH_MODE不为manual的时候调用,否则会报错。

当执行的模型是动态模型,并且会将模型部署到多个device上的场景下,若观察接口耗时发现性能波动比较大,可以通过对执行进程进行绑核尝试解决。绑核方式:'taskset -c 0-15 执行进程',0-15是绑定的cpu核的范围,绑定的cpu核的个数建议配置为部署的device数量*2 + 进程脚本中自行拉起的线程数量。比如执行8p的模型用到8个device,进程脚本中没有拉起线程,那么配置的cpu核数就是16,范围选可用的cpu核:0-15。

搜索结果
找到“0”个结果

当前产品无相关内容

未找到相关内容,请尝试其他搜索词