提交 e74da59a 编写于 作者: 雪洛's avatar 雪洛

docs: update uni-ai

上级 bf25dfec
......@@ -35,6 +35,9 @@ LLM不等于ai的全部,除了LLM,还有ai生成图片等其他模型。
注意需在相关云函数或云对象中加载`uni-cloud-ai`[使用扩展库](cf-functions.md#extension),否则会报找不到ai对象。
> 在2023年06月15日前,您不填写相关apiKey时可以免费使用uni-ai的LLM能力。但6月15日起需配置自己的apiKey或使用`uni-ai计费网关`,否则无法使用。详见[uni-ai计费老用户升级指南](#migrate-to-uni-ai-gateway)
> 2023年07月25日非uni-ai计费网关调用百度接口由内测接口调整为[文心千帆大模型接口](https://cloud.baidu.com/doc/WENXINWORKSHOP/s/jlil56u11),HBuilderX本地调试会在下次HBuilderX发版时生效。
**参数说明GetLLMManagerOptions**
|参数 |类型 |必填 |默认值 |说明 |
......@@ -52,8 +55,6 @@ LLM不等于ai的全部,除了LLM,还有ai生成图片等其他模型。
您可以自行去大模型厂商处注册并填写相应的apiKey的参数。也可以通过DCloud来购买,即使用`uni-ai计费网关`
在2023-06-15前,您不填写相关apiKey时可以免费使用uni-ai的LLM能力。但6月15日起需配置自己的apiKey或使用`uni-ai计费网关`,否则无法使用。详见[uni-ai计费老用户升级指南](#migrate-to-uni-ai-gateway)
`uni-ai计费网关`使用门槛低,并且可以一处充值,多模型体验。您无需在多个大模型厂商处申请,只需向DCloud购买token套餐,即可体验各种大模型的效果。
`uni-ai计费网关`的token计费单价与大模型厂商的定价相同,支持开具发票。
......@@ -136,18 +137,18 @@ const llmManager = uniCloud.ai.getLLMManager({
**参数说明ChatCompletionOptions**
|参数 |类型 |必填 |默认值 |说明 |兼容性说明 |
|--- |--- |--- |--- |--- |--- |
|messages |array |是 | - |提问信息 | |
|model |string |否 |默认值见下方说明 |模型名称。每个AI Provider有多个model,见下方说明|ifly、baidu、azure不支持此参数 |
|deploymentId |string |否 |- |azure模型部署id,如使用uni-ai计费网关无需传递此参数、而是要传model,详见下方说明|仅azure支持此参数 |
|~~maxTokens~~ |number |否 |- |【已废弃,请使用tokensToGenerate替代】生成的token数量限制,需要注意此值和传入的messages对应的token数量相加不可大于模型最大上下文token数|baidu不支持此参数 |
|tokensToGenerate |number |否 |默认值见下方说明 |生成的token数量限制,需要注意此值和传入的messages对应的token数量相加不可大于模型最大上下文token数|baidu不支持此参数 |
|temperature |number |否 |1 |较高的值将使输出更加随机,而较低的值将使输出更加集中和确定。建议temperature和top_p同时只调整其中一个|baidu不支持此参数 |
|topP |number |否 |1 |采样方法,数值越小结果确定性越强;数值越大,结果越随机|ifly、baidu不支持此参数 |
|stream |boolean |否 |false |是否使用流式响应,见下方[流式响应](#chat-completion-stream)章节|baidu不支持此参数 |
|sseChannel |object |通过uni-ai计费网关使用流式响应时必填|- |见下方[流式响应](#chat-completion-stream)章节。客户端如何获取sseChannel对象,请参考:[云函数请求中的中间状态通知通道](sse-channel.md)|baidu不支持此参数 |
|streamEventForSSE|string |否 |message |自动处理流式响应时使用的流式响应回调事件,可选:message、optimizedMessage、line。见下方[流式响应](#chat-completion-stream)章节 |
|参数 |类型 |必填 |默认值 |说明 |兼容性说明 |
|--- |--- |--- |--- |--- |--- |
|messages |array |是 | - |提问信息 | |
|model |string |否 |默认值见下方说明 |模型名称。每个AI Provider有多个model,见下方说明 |ifly、baidu、azure(非uni-ai计费网关调用)不支持此参数 |
|deploymentId |string |否 |- |azure模型部署id,如使用uni-ai计费网关无需传递此参数、而是要传model,详见下方说明 |仅azure(非uni-ai计费网关调用)支持此参数 |
|~~maxTokens~~ |number |否 |- |【已废弃,请使用tokensToGenerate替代】生成的token数量限制,需要注意此值和传入的messages对应的token数量相加不可大于模型最大上下文token数|baidu不支持此参数 |
|tokensToGenerate |number |否 |默认值见下方说明 |生成的token数量限制,需要注意此值和传入的messages对应的token数量相加不可大于模型最大上下文token数 |baidu不支持此参数 |
|temperature |number |否 |1 |较高的值将使输出更加随机,而较低的值将使输出更加集中和确定。建议temperature和top_p同时只调整其中一个 |baidu ERNIE-Bot-turbo不支持此参数 |
|topP |number |否 |1 |采样方法,数值越小结果确定性越强;数值越大,结果越随机 |ifly、baidu ERNIE-Bot-turbo不支持此参数 |
|stream |boolean|否 |false |是否使用流式响应,见下方[流式响应](#chat-completion-stream)章节 | |
|sseChannel |object |通过uni-ai计费网关使用流式响应时必填 |- |见下方[流式响应](#chat-completion-stream)章节。客户端如何获取sseChannel对象,请参考:[云函数请求中的中间状态通知通道](sse-channel.md) | |
|streamEventForSSE|string |否 |message |自动处理流式响应时使用的流式响应回调事件,可选:message、optimizedMessage、line。见下方[流式响应](#chat-completion-stream)章节 | |
**messages参数说明**
......@@ -239,13 +240,16 @@ DCloud在[uni-ai-chat](https://uniapp.dcloud.net.cn/uniCloud/uni-ai-chat.html)
|openai |chatCompletion |gpt-4、gpt-4-0314、gpt-4-32k、gpt-4-32k-0314、gpt-3.5-turbo(默认值)、gpt-3.5-turbo-0301 |
|minimax |chatCompletion |abab4-chat、abab5-chat(默认值) |
|azure(通过uni-ai计费网关调用)|chatCompletion |gpt-3.5-turbo(默认值) |
|baidu(文心千帆)|chatCompletion |ERNIE-Bot(默认值)、ERNIE-Bot-turbo |
模型最大上下文token数
**模型最大上下文token数、字数限制**
openai gpt-3.5-turbo: 4097
azure gpt-3.5-turbo: 8192
abab4-chat、abab5-chat: 4096
baidu文心千帆最后一个message的content长度(即此轮对话的问题)不能超过2000个字符;如果messages中content总长度大于2000字符,系统会依次遗忘最早的历史会话,直到content的总长度不超过2000个字符
**tokensToGenerate参数说明**
tokensToGenerate指生成的token数量限制,即返回的文本对应的token数量不能超过此值。注意这个值不是总token。
......@@ -260,19 +264,19 @@ tokensToGenerate指生成的token数量限制,即返回的文本对应的token
**chatCompletion方法的返回值**
|参数 |类型 |必备 |默认值 |说明 |兼容性说明 |
|--- |--- |--- |--- |--- |--- |
|id |string |openai必备 | - |本次回复的id |仅openai返回此项 |
|reply |string |是 | - |ai对本次消息的回复 | |
|choices |array<object>|否 |- |所有生成结果 |百度文心一言不返回此项 |
||--finishReason |string |否 |- |截断原因,stop(正常结束)、length(超出maxTokens被截断) | |
||--message |object |否 |- |返回消息 | |
|  |--role |string |否 |- |角色 | |
|  |--content|string |否 |- |消息内容 | |
|usage |object |是 |- |本次对话token消耗详情 | |
||--promptTokens |number |否 |- |输入的token数量 |minimax返回undefined |
||--completionTokens |number |否 |- |生成的token数量 |minimax返回undefined |
||--totalTokens |number |是 |- |总token数量 | |
|参数 |类型 |必备 |默认值 |说明 |兼容性说明 |
|--- |--- |--- |--- |--- |--- |
|id |string |openai必备 | - |本次回复的id |仅openai返回此项 |
|reply |string |是 | - |ai对本次消息的回复 | |
|choices |array<object>|否 |- |所有生成结果 |百度不返回此项 |
||--finishReason |string |否 |- |截断原因,stop(正常结束)、length(超出maxTokens被截断)| |
||--message |object |否 |- |返回消息 | |
|  |--role |string |否 |- |角色 | |
|  |--content|string |否 |- |消息内容 | |
|usage |object |是 |- |本次对话token消耗详情 | |
||--promptTokens |number |否 |- |输入的token数量 |minimax返回undefined |
||--completionTokens |number |否 |- |生成的token数量 |minimax返回undefined |
||--totalTokens |number |是 |- |总token数量 | |
#### 简单示例
......@@ -437,7 +441,7 @@ DCloud提供了开源的`uni-ai-chat`,对流式响应进行了前后端一体
|参数 |类型 |必填 |默认值 |说明 |
|--- |--- |--- |--- |--- |
|provider |string |否 |- |服务商,目前仅支持`baidu`。 |
|accessToken|string |否 |- |llm服务商的accessToken。目前百度文心一言是必填,如何获取请参考:[百度AI鉴权认证机制](https://ai.baidu.com/ai-doc/REFERENCE/Ck3dwjhhu)|
|accessToken|string |否 |- |llm服务商的accessToken。目前百度是必填,如何获取请参考:[百度AI鉴权认证机制](https://ai.baidu.com/ai-doc/REFERENCE/Ck3dwjhhu)|
**示例**
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册