Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
imdatouk
unidocs-zh
提交
e74da59a
U
unidocs-zh
项目概览
imdatouk
/
unidocs-zh
与 Fork 源项目一致
Fork自
DCloud / unidocs-zh
通知
2
Star
0
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
DevOps
流水线
流水线任务
计划
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
U
unidocs-zh
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
DevOps
DevOps
流水线
流水线任务
计划
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
流水线任务
提交
Issue看板
体验新版 GitCode,发现更多精彩内容 >>
提交
e74da59a
编写于
7月 25, 2023
作者:
雪洛
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
docs: update uni-ai
上级
bf25dfec
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
33 addition
and
29 deletion
+33
-29
docs/uniCloud/uni-ai.md
docs/uniCloud/uni-ai.md
+33
-29
未找到文件。
docs/uniCloud/uni-ai.md
浏览文件 @
e74da59a
...
...
@@ -35,6 +35,9 @@ LLM不等于ai的全部,除了LLM,还有ai生成图片等其他模型。
注意需在相关云函数或云对象中加载
`uni-cloud-ai`
[
使用扩展库
](
cf-functions.md#extension
)
,否则会报找不到ai对象。
> 在2023年06月15日前,您不填写相关apiKey时可以免费使用uni-ai的LLM能力。但6月15日起需配置自己的apiKey或使用`uni-ai计费网关`,否则无法使用。详见[uni-ai计费老用户升级指南](#migrate-to-uni-ai-gateway)
> 2023年07月25日非uni-ai计费网关调用百度接口由内测接口调整为[文心千帆大模型接口](https://cloud.baidu.com/doc/WENXINWORKSHOP/s/jlil56u11),HBuilderX本地调试会在下次HBuilderX发版时生效。
**参数说明GetLLMManagerOptions**
|参数 |类型 |必填 |默认值 |说明 |
...
...
@@ -52,8 +55,6 @@ LLM不等于ai的全部,除了LLM,还有ai生成图片等其他模型。
您可以自行去大模型厂商处注册并填写相应的apiKey的参数。也可以通过DCloud来购买,即使用
`uni-ai计费网关`
。
在2023-06-15前,您不填写相关apiKey时可以免费使用uni-ai的LLM能力。但6月15日起需配置自己的apiKey或使用
`uni-ai计费网关`
,否则无法使用。详见
[
uni-ai计费老用户升级指南
](
#migrate-to-uni-ai-gateway
)
`uni-ai计费网关`
使用门槛低,并且可以一处充值,多模型体验。您无需在多个大模型厂商处申请,只需向DCloud购买token套餐,即可体验各种大模型的效果。
`uni-ai计费网关`
的token计费单价与大模型厂商的定价相同,支持开具发票。
...
...
@@ -136,18 +137,18 @@ const llmManager = uniCloud.ai.getLLMManager({
**参数说明ChatCompletionOptions**
|参数 |类型
|必填 |默认值 |说明 |兼容性说明
|
|--- |---
|--- |--- |--- |---
|
|messages |array
|是 | - |提问信息 |
|
|model |string
|否 |默认值见下方说明 |模型名称。每个AI Provider有多个model,见下方说明|ifly、baidu、azure不支持此参数
|
|deploymentId |string
|否 |- |azure模型部署id,如使用uni-ai计费网关无需传递此参数、而是要传model,详见下方说明|仅azure支持此参数
|
|~~maxTokens~~ |number
|否 |- |【已废弃,请使用tokensToGenerate替代】生成的token数量限制,需要注意此值和传入的messages对应的token数量相加不可大于模型最大上下文token数|baidu不支持此参数
|
|tokensToGenerate |number
|否 |默认值见下方说明 |生成的token数量限制,需要注意此值和传入的messages对应的token数量相加不可大于模型最大上下文token数|baidu不支持此参数
|
|temperature |number
|否 |1 |较高的值将使输出更加随机,而较低的值将使输出更加集中和确定。建议temperature和top_p同时只调整其中一个|baidu不支持此参数
|
|topP |number
|否 |1 |采样方法,数值越小结果确定性越强;数值越大,结果越随机|ifly、baidu不支持此参数
|
|stream |boolean
|否 |false |是否使用流式响应,见下方
[
流式响应
](
#chat-completion-stream
)
章节|baidu不支持此参数
|
|sseChannel |object
|通过uni-ai计费网关使用流式响应时必填|- |见下方
[
流式响应
](
#chat-completion-stream
)
章节。客户端如何获取sseChannel对象,请参考:
[
云函数请求中的中间状态通知通道
](
sse-channel.md
)
|baidu不支持此参数
|
|streamEventForSSE|string |否 |message |自动处理流式响应时使用的流式响应回调事件,可选:message、optimizedMessage、line。见下方
[
流式响应
](
#chat-completion-stream
)
章节 |
|参数 |类型
|必填 |默认值 |说明 |兼容性说明
|
|--- |---
|--- |--- |--- |---
|
|messages |array
|是 | - |提问信息 |
|
|model |string
|否 |默认值见下方说明 |模型名称。每个AI Provider有多个model,见下方说明 |ifly、baidu、azure(非uni-ai计费网关调用)不支持此参数
|
|deploymentId |string
|否 |- |azure模型部署id,如使用uni-ai计费网关无需传递此参数、而是要传model,详见下方说明 |仅azure(非uni-ai计费网关调用)支持此参数
|
|~~maxTokens~~ |number
|否 |- |【已废弃,请使用tokensToGenerate替代】生成的token数量限制,需要注意此值和传入的messages对应的token数量相加不可大于模型最大上下文token数|baidu不支持此参数
|
|tokensToGenerate |number
|否 |默认值见下方说明 |生成的token数量限制,需要注意此值和传入的messages对应的token数量相加不可大于模型最大上下文token数 |baidu不支持此参数
|
|temperature |number
|否 |1 |较高的值将使输出更加随机,而较低的值将使输出更加集中和确定。建议temperature和top_p同时只调整其中一个 |baidu ERNIE-Bot-turbo不支持此参数
|
|topP |number
|否 |1 |采样方法,数值越小结果确定性越强;数值越大,结果越随机 |ifly、baidu ERNIE-Bot-turbo不支持此参数
|
|stream |boolean
|否 |false |是否使用流式响应,见下方
[
流式响应
](
#chat-completion-stream
)
章节 |
|
|sseChannel |object
|通过uni-ai计费网关使用流式响应时必填 |- |见下方
[
流式响应
](
#chat-completion-stream
)
章节。客户端如何获取sseChannel对象,请参考:
[
云函数请求中的中间状态通知通道
](
sse-channel.md
)
|
|
|streamEventForSSE|string |否 |message |自动处理流式响应时使用的流式响应回调事件,可选:message、optimizedMessage、line。见下方
[
流式响应
](
#chat-completion-stream
)
章节
|
|
**messages参数说明**
...
...
@@ -239,13 +240,16 @@ DCloud在[uni-ai-chat](https://uniapp.dcloud.net.cn/uniCloud/uni-ai-chat.html)
|openai |chatCompletion |gpt-4、gpt-4-0314、gpt-4-32k、gpt-4-32k-0314、gpt-3.5-turbo(默认值)、gpt-3.5-turbo-0301 |
|minimax |chatCompletion |abab4-chat、abab5-chat(默认值) |
|azure(通过uni-ai计费网关调用)|chatCompletion |gpt-3.5-turbo(默认值) |
|baidu(文心千帆)|chatCompletion |ERNIE-Bot(默认值)、ERNIE-Bot-turbo |
模型最大上下文token数
**模型最大上下文token数、字数限制**
openai gpt-3.5-turbo: 4097
azure gpt-3.5-turbo: 8192
abab4-chat、abab5-chat: 4096
baidu文心千帆最后一个message的content长度(即此轮对话的问题)不能超过2000个字符;如果messages中content总长度大于2000字符,系统会依次遗忘最早的历史会话,直到content的总长度不超过2000个字符
**tokensToGenerate参数说明**
tokensToGenerate指生成的token数量限制,即返回的文本对应的token数量不能超过此值。注意这个值不是总token。
...
...
@@ -260,19 +264,19 @@ tokensToGenerate指生成的token数量限制,即返回的文本对应的token
**chatCompletion方法的返回值**
|参数
|类型 |必备 |默认值 |说明 |兼容性说明
|
|---
|--- |--- |--- |--- |---
|
|id
|string |openai必备 | - |本次回复的id |仅openai返回此项
|
|reply
|string |是 | - |ai对本次消息的回复 |
|
|choices
|array
<
object
>
|否 |- |所有生成结果 |百度文心一言不返回此项
|
|
|
--finishReason
|string |否 |- |截断原因,stop(正常结束)、length(超出maxTokens被截断) |
|
|
|
--message
|object |否 |- |返回消息 |
|
|
|
--role
|string |否 |- |角色 |
|
|
|
--content|string
|否 |- |消息内容 |
|
|usage
|object |是 |- |本次对话token消耗详情 |
|
|
|
--promptTokens
|number |否 |- |输入的token数量 |minimax返回undefined
|
|
|
--completionTokens
|number |否 |- |生成的token数量 |minimax返回undefined
|
|
|
--totalTokens
|number |是 |- |总token数量 |
|
|参数
|类型 |必备 |默认值 |说明 |兼容性说明
|
|---
|--- |--- |--- |--- |---
|
|id
|string |openai必备 | - |本次回复的id |仅openai返回此项
|
|reply
|string |是 | - |ai对本次消息的回复 |
|
|choices
|array
<
object
>
|否 |- |所有生成结果 |百度不返回此项
|
|
|
--finishReason
|string |否 |- |截断原因,stop(正常结束)、length(超出maxTokens被截断)|
|
|
|
--message
|object |否 |- |返回消息 |
|
|
|
--role
|string |否 |- |角色 |
|
|
|
--content|string
|否 |- |消息内容 |
|
|usage
|object |是 |- |本次对话token消耗详情 |
|
|
|
--promptTokens
|number |否 |- |输入的token数量 |minimax返回undefined
|
|
|
--completionTokens
|number |否 |- |生成的token数量 |minimax返回undefined
|
|
|
--totalTokens
|number |是 |- |总token数量 |
|
#### 简单示例
...
...
@@ -437,7 +441,7 @@ DCloud提供了开源的`uni-ai-chat`,对流式响应进行了前后端一体
|参数 |类型 |必填 |默认值 |说明 |
|--- |--- |--- |--- |--- |
|provider |string |否 |- |服务商,目前仅支持
`baidu`
。 |
|accessToken|string |否 |- |llm服务商的accessToken。目前百度
文心一言
是必填,如何获取请参考:
[
百度AI鉴权认证机制
](
https://ai.baidu.com/ai-doc/REFERENCE/Ck3dwjhhu
)
|
|accessToken|string |否 |- |llm服务商的accessToken。目前百度是必填,如何获取请参考:
[
百度AI鉴权认证机制
](
https://ai.baidu.com/ai-doc/REFERENCE/Ck3dwjhhu
)
|
**示例**
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录