提供文本/流式推理处理功能。
操作类型:POST
URL:https://{ip}:{port}/generate
参数 |
是否必选 |
说明 |
取值要求 |
---|---|---|---|
prompt |
必选 |
推理请求内容。单模态文本模型为string类型,多模态模型为list类型。 |
|
type |
可选 |
推理请求内容类型。 |
单个请求中image_url、video_url、audio_url数量总和<=20个。 |
text |
可选 |
推理请求内容为文本。 |
非空,支持中英文。 |
image_url |
可选 |
推理请求内容为图片。 |
支持服务器本地路径的图片传入,图片类型支持jpg、png、jpeg和base64编码的jpg图片,支持URL图片传入,支持HTTP和HTTPS协议。当前支持传入的图片最大为20MB。 |
video_url |
可选 |
推理请求内容为视频。 |
支持服务器本地路径的视频传入,视频类型支持MP4、AVI、WMV,支持URL视频传入,支持HTTP和HTTPS协议。当前支持传入的视频最大512MB。 |
audio_url |
可选 |
推理请求内容为音频。 |
支持服务器本地路径的音频传入,音频类型支持MP3、WAV、FLAC,支持URL音频传入,支持HTTP和HTTPS协议。当前支持传入的音频最大20MB。 |
max_tokens |
可选 |
允许推理生成的最大token个数。实际产生的token数量同时受到配置文件maxIterTimes参数影响,推理token个数小于或等于Min(maxIterTimes, max_tokens)。 |
int类型,取值范围(0,2147483647],默认值为MindIE Server配置文件中的maxIterTimes参数。 |
repetition_penalty |
可选 |
重复惩罚用于减少在文本生成过程中出现重复片段的概率。它对之前已经生成的文本进行惩罚,使得模型更倾向于选择新的、不重复的内容。 |
float类型,取值范围(0.0, 2.0],默认值1.0。
|
presence_penalty |
可选 |
存在惩罚介于-2.0和2.0之间,它影响模型如何根据到目前为止是否出现在文本中来惩罚新token。正值将通过惩罚已经使用的词,增加模型谈论新主题的可能性。 |
float类型,取值范围[-2.0, 2.0],默认值0.0。 |
frequency_penalty |
可选 |
频率惩罚介于-2.0和2.0之间,它影响模型如何根据文本中词汇的现有频率惩罚新词汇。正值将通过惩罚已经频繁使用的词来降低模型一行中重复用词的可能性。 |
float类型,取值范围[-2.0, 2.0],默认值0.0。 |
temperature |
可选 |
控制生成的随机性,较高的值会产生更多样化的输出。1.0表示不进行计算,大于1.0表示输出随机性提高。temperature=0.0,即采用greedy sampling。 |
float类型,取值大于或等于0.0。 取0.0时将忽略其他后处理参数做greedysearch。推荐使用大于或等于0.001的值,小于0.001可能会导致文本质量不佳。建议最大值取2.0,同时视模型而定。 |
top_p |
可选 |
控制模型生成过程中考虑的词汇范围,使用累计概率选择候选词,直到累计概率超过给定的阈值。该参数也可以控制生成结果的多样性,它基于累积概率选择候选词,直到累计概率超过给定的阈值为止。 |
float类型,取值范围(1e-6, 1.0],默认值1.0。 |
top_k |
可选 |
控制模型生成过程中考虑的词汇范围,只从概率最高的k个候选词中选择。-1表示不进行top k计算。 |
uint32_t类型,取值范围-1或者(0, 2147483647],字段未设置时,默认值由后端模型确定,详情请参见说明。取值大于或等于vocabSize时,默认值为vocabSize。 若传-1,-1会变为0传递给MindIE LLM后端,MindIE LLM后端会当做词表大小来处理。 vocabSize是从modelWeightPath路径下的config.json文件中读取的vocab_size或者padded_vocab_size的值,若不存在则vocabSize取默认值0。建议用户在config.json文件中添加vocab_size或者padded_vocab_size参数,否则可能导致推理失败。 |
seed |
可选 |
用于指定推理过程的随机种子,相同的seed值可以确保推理结果的可重现性,不同的seed值会提升推理结果的随机性。 |
uint_64类型,取值范围(0, 18446744073709551615],不传递该参数,系统会产生一个随机seed值。 当seed取到临近最大值时,会有WARNING,但并不会影响使用。若想去掉WARNING,可以减小seed取值。 |
stream |
可选 |
指定返回结果是文本推理还是流式推理。 |
bool类型,默认值false。
|
stop |
可选 |
停止推理的文本。输出结果中默认不包含停止词列表文本。 |
List[string]类型或者string类型;默认为null。
PD分离场景暂不支持该参数。 |
stop_token_ids |
可选 |
停止推理的token id列表。输出结果中默认不包含停止推理列表中的token id。 |
List[int32]类型,超出int32的元素将会被忽略。 默认为null。 |
model |
可选 |
指定推理时使用的Lora权重,即loraId。 |
string类型,默认值"None"。 |
include_stop_str_in_output |
可选 |
决定是否在生成的推理文本中包含停止字符串。 |
bool类型,默认值为false。PD场景暂不支持此参数。
不传入stop或stop_token_ids时,此字段会被忽略。 |
skip_special_tokens |
可选 |
指定在推理生成的文本中是否跳过特殊tokens。 |
bool类型,默认值为true。
|
ignore_eos |
可选 |
指定在推理文本生成过程中是否忽略eos_token结束符 |
bool类型,默认值为false。
|
请求样例:
POST https://{ip}:{port}/generate
请求消息体:
{ "prompt": "My name is Olivier and I", "max_tokens": 20, "repetition_penalty": 1.03, "presence_penalty": 1.2, "frequency_penalty": 1.2, "temperature": 0.5, "top_p": 0.95, "top_k": 10, "seed": null, "stream": false, "stop": null, "stop_token_ids": null, "model": "None", "include_stop_str_in_output": false, "skip_special_tokens": true, "ignore_eos": false }
"image_url"参数的取值请根据实际情况进行修改。
{ "prompt": [ {"type": "text", "text": "My name is Olivier and I"}, { "type": "image_url", "image_url": "/xxxx/test.png" } ], "max_tokens": 20, "repetition_penalty": 1.03, "presence_penalty": 1.2, "frequency_penalty": 1.2, "temperature": 0.5, "top_p": 0.95, "top_k": 10, "seed": null, "stream": false, "stop": null, "stop_token_ids": null, "model": "None", "include_stop_str_in_output": false, "skip_special_tokens": true, "ignore_eos": false }
响应样例:
{"text":["My name is Olivier and I am a Frenchman living in the UK. I am a keen photographer and"]}
{"text":["am"]}{"text":[" a"]}{"text":[" French"]}{"text":["man"]}{"text":[" living"]}{"text":[" in"]}"text":[" the"]}{"text":[" UK"]}{"text":["."]}{"text":[" I"]} {"text":[" am"]}{"text":[" a"]}"text":[" keen"]}{"text":[" photograph"]}{"text":["er"]}{"text":[" and"]}
{"text":[" to"]}{"text":[" to travel"]}{"text":[" to travel."]}{"text":[" to travel. I"]}{"text":[" to travel. I'm"]}
返回值 |
类型 |
说明 |
---|---|---|
text |
string |
推理返回结果。 |
vLLM流式返回结果,每个token的返回结果添加'\0'字符做分割。使用curl命令发送vLLM流式推理请求的样例如下:
curl -H "Accept: application/json" -H "Content-type: application/json" --cacert /home/runs/static_conf/ca/ca.pem --cert /home/runs/static_conf/cert/client.pem --key /home/runs/static_conf/cert/client.key.pem -X POST -d '{ "prompt": "My name is Olivier and I", "stream": true, "repetition_penalty": 1.0, "top_p": 1.0, "top_k": 10, "max_tokens": 16, "temperature": 1.0 }' https://{ip}:{port}/generate | cat