提交 3b2f9481 编写于 作者: 雪洛's avatar 雪洛

docs: update uni-ai

上级 dc80e945
......@@ -140,12 +140,12 @@ const llmManager = uniCloud.ai.getLLMManager({
|messages |array |是 | - |提问信息 | |
|model |string |否 |默认值见下方说明 |模型名称。每个AI Provider有多个model,见下方说明 |baidu、azure不支持此参数 |
|deploymentId |string |否 |- |azure模型部署id,如使用uni-ai计费网关无需传递此参数、而是要传model,详见下方说明 |仅azure支持此参数 |
|~~maxTokens~~ |number |否 |- |【已废弃,请使用tokensToGenerate替代】生成的token数量限制,需要注意此值和传入的messages对应的token数量相加不可大于4096 |baidu不支持此参数 |
|tokensToGenerate |number |否 |默认值见下方说明 |生成的token数量限制,需要注意此值和传入的messages对应的token数量相加不可大于4096 |baidu不支持此参数 |
|temperature |number |否 |1 |较高的值将使输出更加随机,而较低的值将使输出更加集中和确定。建议temperature和top_p同时只调整其中一个 |baidu不支持此参数 |
|topP |number |否 |1 |采样方法,数值越小结果确定性越强;数值越大,结果越随机 |baidu不支持此参数 |
|stream |boolean|否 |false |是否使用流式响应,见下方[流式响应](#chat-completion-stream)章节 |baidu不支持此参数 |
|sseChannel |object |通过uni-ai计费网关使用流式响应时必填 |- |见下方[流式响应](#chat-completion-stream)章节。客户端如何获取sseChannel对象,请参考:[云函数请求中的中间状态通知通道](sse-channel.md)|baidu不支持此参数 |
|~~maxTokens~~ |number |否 |- |【已废弃,请使用tokensToGenerate替代】生成的token数量限制,需要注意此值和传入的messages对应的token数量相加不可大于模型最大上下文token数|baidu不支持此参数 |
|tokensToGenerate |number |否 |默认值见下方说明 |生成的token数量限制,需要注意此值和传入的messages对应的token数量相加不可大于模型最大上下文token数|baidu不支持此参数 |
|streamEventForSSE|string |否 |message |自动处理流式响应时使用的流式响应回调事件,可选:message、optimizedMessage、line。见下方[流式响应](#chat-completion-stream)章节 |
**messages参数说明**
......@@ -239,11 +239,17 @@ DCloud在[uni-ai-chat](https://uniapp.dcloud.net.cn/uniCloud/uni-ai-chat.html)
|minimax |chatCompletion |abab4-chat、abab5-chat(默认值) |
|azure(通过uni-ai计费网关调用)|chatCompletion |gpt-3.5-turbo(默认值) |
模型最大上下文token数
openai gpt-3.5-turbo: 4097
azure gpt-3.5-turbo: 8192
abab4-chat、abab5-chat: 4096
**tokensToGenerate参数说明**
tokensToGenerate指生成的token数量限制,即返回的文本对应的token数量不能超过此值。注意这个值不是总token。
注意此值和传入messages对应的token数量,两者相加不可大于4096。如果messages对应的token数为1024,当传递的tokensToGenerate参数大于(4096-1024)时接口会抛出错误。
注意此值和传入messages对应的token数量,两者相加不可大于模型最大上下文token数。如果messages对应的token数为1024,当传递的tokensToGenerate参数大于(模型最大上下文token数-1024)时接口会抛出错误。
使用minimax时默认最多生成512个token的结果,也就是返回结果不会很长。如有需求请自行调整此值。
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册