提供流式推理处理功能。
操作类型:POST
URL:https://{ip}:{port}/v2/models/${MODEL_NAME}[/versions/${MODEL_VERSION}]/generate_stream
参数 |
是否必选 |
说明 |
取值要求 |
|
---|---|---|---|---|
id |
可选 |
请求ID。 |
长度不超过256的非空字符串。只允许包含下划线、中划线、大写英文字母、小写英文字母和数字。 |
|
text_input |
必选 |
推理请求内容。单模态文本模型为string类型,多模态模型为list类型。 |
|
|
- |
type |
可选 |
推理请求内容类型。 |
单个请求中image_url、video_url、audio_url数量总和<=20个。 |
text |
可选 |
推理请求内容为文本。 |
非空,支持中英文。 |
|
image_url |
可选 |
推理请求内容为图片。 |
支持服务器本地路径的图片传入,图片类型支持jpg、png、jpeg和base64编码的jpg图片,支持URL图片传入。支持HTTP和HTTPS协议。当前支持传入的图片最大为20MB。 |
|
video_url |
可选 |
推理请求内容为视频。 |
支持服务器本地路径的视频传入,视频类型支持MP4、AVI、WMV,支持URL视频传入,支持HTTP和HTTPS协议。当前支持传入的视频最大512MB。 |
|
audio_url |
可选 |
推理请求内容为音频。 |
支持服务器本地路径的音频传入,音频类型支持MP3、WAV、FLAC,支持URL音频传入,支持HTTP和HTTPS协议。当前支持传入的音频最大20MB。 |
|
parameters |
可选 |
模型推理后处理相关参数。 |
- |
|
- |
details |
可选 |
是否返回推理详细输出结果。 |
bool类型,默认值false。 |
do_sample |
可选 |
是否做sampling。 |
bool类型,不传递该参数时,将由其他后处理参数决定是否做sampling。
|
|
max_new_tokens |
可选 |
允许推理生成的最大token个数。实际产生的token数量同时受到配置文件maxIterTimes参数影响,推理token个数小于或等于Min(maxIterTimes, max_new_tokens)。 |
int类型,取值范围(0,2147483647],默认值20。 |
|
repetition_penalty |
可选 |
重复惩罚用于减少在文本生成过程中出现重复片段的概率。它对之前已经生成的文本进行惩罚,使得模型更倾向于选择新的、不重复的内容。 |
float类型,大于0.0,默认值1.0。
建议最大值取2.0,同时视模型而定。 |
|
seed |
可选 |
用于指定推理过程的随机种子,相同的seed值可以确保推理结果的可重现性,不同的seed值会提升推理结果的随机性。 |
uint_64类型,取值范围(0, 18446744073709551615],不传递该参数,系统会产生一个随机seed值。 当seed取到临近最大值时,会有WARNING,但并不会影响使用。若想去掉WARNING,可以减小seed取值。 |
|
temperature |
可选 |
控制生成的随机性,较高的值会产生更多样化的输出。 |
float类型,大于1e-6,默认值1.0。 取值越大,结果的随机性越大。推荐使用大于或等于0.001的值,小于0.001可能会导致文本质量不佳。 建议最大值取2.0,同时视模型而定。 |
|
top_k |
可选 |
控制模型生成过程中考虑的词汇范围,只从概率最高的k个候选词中选择。 |
int32_t类型,取值范围[0, 2147483647],字段未设置时,默认值由后端模型确定,详情请参见说明。取值大于或等于vocabSize时,默认值为vocabSize。 vocabSize是从modelWeightPath路径下的config.json文件中读取的vocab_size或者padded_vocab_size的值,若不存在则vocabSize取默认值0。建议用户在config.json文件中添加vocab_size或者padded_vocab_size参数,否则可能导致推理失败。 |
|
top_p |
可选 |
控制模型生成过程中考虑的词汇范围,使用累计概率选择候选词,直到累计概率超过给定的阈值。该参数也可以控制生成结果的多样性,它基于累积概率选择候选词,直到累计概率超过给定的阈值为止。 |
float类型,取值范围(1e-6, 1.0],默认值1.0。 |
|
batch_size |
可选 |
推理请求batch_size |
int类型,取值范围(0,2147483647],默认值1。 |
|
typical_p |
可选 |
解码输出概率分布指数。 当前后处理不支持。 |
float类型,取值范围(0.0, 1.0],字段未设置时,默认使用-1.0来表示不进行该项处理,但是不可主动设置为-1.0。 |
|
watermark |
可选 |
是否带模型水印。 当前后处理不支持。 |
bool类型,默认值false。
|
|
perf_stat |
可选 |
是否打开性能统计。 |
bool类型,默认值false。
|
|
priority |
可选 |
设置请求优先级。 |
uint64_t类型,取值范围[1, 5],默认值5。 值越低优先级越高,最高优先级为1。 |
|
timeout |
可选 |
设置等待时间,超时则断开请求。 |
uint64_t类型,取值范围(0, 3600],默认值600,单位:秒。 |
|
firstTokenCost |
可选 |
本条请求首token时间。 |
size_t类型。仅在PD重计算场景使用。 取值范围[0, 18446744073709551615]。 |
|
decodeTime |
可选 |
本条请求重计算之前Decode时间。 |
std::vector<size_t>类型。仅在PD重计算场景使用。 取值范围[0, 18446744073709551615]。 |
请求样例:
POST https://{ip}:{port}/v2/models/llama_65b/generate_stream
请求消息体:
{ "id":"a123", "text_input": "My name is Olivier and I", "parameters": { "details": true, "do_sample": true, "max_new_tokens":5, "repetition_penalty": 1.1, "seed": 123, "temperature": 1, "top_k": 10, "top_p": 0.99, "batch_size":100, "typical_p": 0.5, "watermark": false, "perf_stat": true, "priority": 5, "timeout": 10 } }
"image_url"参数的取值请根据实际情况进行修改。
{ "id":"a123", "text_input": [ {"type": "text", "text": "My name is Olivier and I"}, { "type": "image_url", "image_url": "/xxxx/test.png" } ], "parameters": { "details": true, "do_sample": true, "max_new_tokens":20, "repetition_penalty": 1.1, "seed": 123, "temperature": 1, "top_k": 10, "top_p": 0.99, "batch_size":100, "typical_p": 0.5, "watermark": false, "perf_stat": false, "priority": 5, "timeout": 10 } }
响应样例:
data:{"id":"a123","model_name":"llama_65b","model_version":null,"text_output":"live","details":{"generated_tokens":1,"first_token_cost":null,"decode_cost":null,"perf_stat":[[5735,28]],"batch_size":1,"queue_wait_time":5082},"prefill_time":28,"decode_time":null} data:{"id":"a123","model_name":"llama_65b","model_version":null,"text_output":" in","details":{"generated_tokens":2,"first_token_cost":null,"decode_cost":null,"perf_stat":[[5735,28],[297,9]],"batch_size":1,"queue_wait_time":36},"prefill_time":null,"decode_time":9} data:{"id":"a123","model_name":"llama_65b","model_version":null,"text_output":" Paris","details":{"generated_tokens":3,"first_token_cost":null,"decode_cost":null,"perf_stat":[[5735,28],[297,9],[3681,8]],"batch_size":1,"queue_wait_time":30},"prefill_time":null,"decode_time":8} data:{"id":"a123","model_name":"llama_65b","model_version":null,"text_output":",","details":{"generated_tokens":4,"first_token_cost":null,"decode_cost":null,"perf_stat":[[5735,28],[297,9],[3681,8],[29892,7]],"batch_size":1,"queue_wait_time":23},"prefill_time":null,"decode_time":7} data:{"id":"a123","model_name":"llama_65b","model_version":null,"text_output":" France","details":{"finish_reason":"length","generated_tokens":5,"first_token_cost":null,"decode_cost":null,"perf_stat":[[5735,28],[297,9],[3681,8],[29892,7],[3444,7]],"batch_size":1,"queue_wait_time":24},"prefill_time":null,"decode_time":7}
data:{"id":"endpoint_common_20","model_name":"Qwen1.5-14B-Chat","model_version":null,"text_output":"'m","details":{"generated_tokens":1,"first_token_cost":null,"decode_cost":null,"batch_size":1,"queue_wait_time":5092},"prefill_time":41.68000030517578,"decode_time":null} data:{"id":"endpoint_common_20","model_name":"Qwen1.5-14B-Chat","model_version":null,"text_output":"'m from","details":{"generated_tokens":2,"first_token_cost":null,"decode_cost":null,"batch_size":1,"queue_wait_time":43},"prefill_time":null,"decode_time":20.440000534057617} data:{"id":"endpoint_common_20","model_name":"Qwen1.5-14B-Chat","model_version":null,"text_output":"'m from France","details":{"generated_tokens":3,"first_token_cost":null,"decode_cost":null,"batch_size":1,"queue_wait_time":27},"prefill_time":null,"decode_time":12.175999641418457} data:{"id":"endpoint_common_20","model_name":"Qwen1.5-14B-Chat","model_version":null,"text_output":"'m from France.","details":{"generated_tokens":4,"first_token_cost":null,"decode_cost":null,"batch_size":1,"queue_wait_time":26},"prefill_time":null,"decode_time":12.128000259399414} data:{"id":"endpoint_common_20","model_name":"Qwen1.5-14B-Chat","model_version":null,"text_output":"'m from France. I","details":{"finish_reason":"length","generated_tokens":5,"first_token_cost":null,"decode_cost":null,"batch_size":1,"queue_wait_time":26},"prefill_time":null,"decode_time":12.458000183105469}
返回值 |
类型 |
说明 |
||
---|---|---|---|---|
data |
object |
一次推理返回的结果。 |
||
- |
id |
string |
请求ID。 |
|
model_name |
string |
模型名称。 |
||
model_version |
string |
模型版本。 |
||
text_output |
string |
推理返回结果。 |
||
details |
object |
推理details结果。 |
||
- |
finish_reason |
string |
推理结束原因,只在最后一次推理结果返回。
|
|
generated_tokens |
int |
推理结果token数量。PD场景下统计P和D推理结果的总token数量。当一个请求的推理长度上限取maxIterTimes的值时,D节点响应中generated_tokens数量为maxIterTimes+1,即增加了P推理结果的首token数量。 |
||
first_token_cost |
List[token] |
文本推理返回,首token产生时间,单位:ms,当前未统计该数据,返回null。 |
||
decode_cost |
int |
Decode时间,单位:ms,当前未统计该数据,返回null。 |
||
perf_stat |
二维数组 |
数组元素:
|
||
batch_size |
int |
流式推理batch size。 |
||
queue_wait_time |
int |
队列等待时间,单位:us。 |
||
prefill_time |
float |
首token时延,单位:ms。 |
||
decode_time |
float |
非首token的token时延,单位:ms。 |