Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
m0_63411167
unidocs-zh
提交
96bea0a2
unidocs-zh
项目概览
m0_63411167
/
unidocs-zh
与 Fork 源项目一致
Fork自
DCloud / unidocs-zh
通知
1
Star
0
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
DevOps
流水线
流水线任务
计划
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
unidocs-zh
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
DevOps
DevOps
流水线
流水线任务
计划
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
流水线任务
提交
Issue看板
前往新版Gitcode,体验更适合开发者的 AI 搜索 >>
提交
96bea0a2
编写于
6月 14, 2023
作者:
雪洛
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
docs: update uni-ai
上级
dec1d532
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
38 addition
and
27 deletion
+38
-27
docs/uniCloud/uni-ai.md
docs/uniCloud/uni-ai.md
+38
-27
未找到文件。
docs/uniCloud/uni-ai.md
浏览文件 @
96bea0a2
...
...
@@ -36,15 +36,15 @@ LLM不等于ai的全部,除了LLM,还有ai生成图片等其他模型。
**参数说明GetLLMManagerOptions**
|参数 |类型 |必填
|默认值 |说明
|
|--- |--- |---
|--- |---
|
|provider |string |
是 |- |llm服务商,目前支持
`openai`
、
`baidu`
、
`minimax`
、
`azure`
(azure新增于HBuilderX 3.8.3)。
|
|apiKey |string |
openai、azure、minimax必填 |- |llm服务商的apiKey。指定openai、azure或minimax作为服务商则必填
|
|endpoint |string |
azure必填 |- |azure服务端点,在azure创建ai服务时获取
|
|accessToken|string |
baidu必填 |- |llm服务商的accessToken。目前百度文心一言是必填,如何获取请参考:
[
百度AI鉴权认证机制
](
https://ai.baidu.com/ai-doc/REFERENCE/Ck3dwjhhu
)
,需确保已开通相关接口的调用权限
|
|groupId |string |
minimax必填 |- |llm服务商的groupId参数。指定minimax作为服务商则必填
|
|proxy |string |否
|- |可有效连接openai服务器的、可被uniCloud云函数连接的代理服务器地址。格式为IP或域名,域名不包含http前缀,协议层面仅支持https。配置为
`openai`
时必填
|
|appId |string |使用uni-ai计费网关时,部分情况必填
|- |客户端manifest.json内的appId,部分场景下(云函数url化、定时触发)云函数/云对象无法获取客户端appId,需要通过此参数传递
|
|参数 |类型 |必填
|默认值 |说明
|
|--- |--- |---
|--- |---
|
|provider |string |
否 |minimax|llm服务商,目前支持
`openai`
、
`baidu`
、
`minimax`
、
`azure`
(azure新增于HBuilderX 3.8.3)。
|
|apiKey |string |
非uni-ai计费网关调用openai、azure、minimax必填 |- |llm服务商的apiKey。
|
|endpoint |string |
非uni-ai计费网关调用azure必填 |- |azure服务端点,在azure创建ai服务时获取
|
|accessToken|string |
非uni-ai计费网关调用baidu必填 |- |llm服务商的accessToken。如何获取请参考:
[
百度AI鉴权认证机制
](
https://ai.baidu.com/ai-doc/REFERENCE/Ck3dwjhhu
)
,需确保已开通相关接口的调用权限
|
|groupId |string |
非uni-ai计费网关调用minimax必填 |- |llm服务商的groupId参数。
|
|proxy |string |否
|- |可有效连接openai服务器的、可被uniCloud云函数连接的代理服务器地址。格式为IP或域名,域名不包含http前缀,协议层面仅支持https。配置为
`openai`
时必填
|
|appId |string |使用uni-ai计费网关时,部分情况必填
|- |客户端manifest.json内的appId,部分场景下(云函数url化、定时触发)云函数/云对象无法获取客户端appId,需要通过此参数传递
|
**如何使用uni-ai计费网关**
...
...
@@ -91,17 +91,17 @@ const llmManager = uniCloud.ai.getLLMManager({
**参数说明ChatCompletionOptions**
|参数 |类型 |必填
|默认值 |说明
|兼容性说明 |
|--- |--- |---
|--- |---
|--- |
|messages |array |是
| - |提问信息
| |
|model |string |否
|默认值见下方说明 |模型名称。每个AI Provider有多个model,见下方说明
|baidu、azure不支持此参数 |
|deploymentId |string |
azure必填 |- |azure模型部署id,如使用uni-ai计费网关无需传递此参数、而是要传model,详见下方说明
|仅azure支持此参数 |
|~~maxTokens~~ |number |否
|- |【已废弃,请使用tokensToGenerate替代】生成的token数量限制,需要注意此值和传入的messages对应的token数量相加不可大于4096
|baidu不支持此参数 |
|tokensToGenerate |number |否
|默认值见下方说明 |生成的token数量限制,需要注意此值和传入的messages对应的token数量相加不可大于4096
|baidu不支持此参数 |
|temperature |number |否
|1 |较高的值将使输出更加随机,而较低的值将使输出更加集中和确定。建议temperature和top_p同时只调整其中一个
|baidu不支持此参数 |
|topP |number |否
|1 |采样方法,数值越小结果确定性越强;数值越大,结果越随机
|baidu不支持此参数 |
|stream |boolean|否
|false |是否使用流式响应,见下方
[
流式响应
](
#chat-completion-stream
)
章节
|baidu不支持此参数 |
|sseChannel |object |通过uni-ai计费网关使用流式响应时必填 |- |见下方
[
流式响应
](
#chat-completion-stream
)
章节。客户端如何获取sseChannel对象,请参考:
[
云函数请求中的中间状态通知通道
](
sse-channel.md
)
|baidu不支持此参数 |
|参数 |类型 |必填
|默认值 |说明
|兼容性说明 |
|--- |--- |---
|--- |---
|--- |
|messages |array |是
| - |提问信息
| |
|model |string |否
|默认值见下方说明 |模型名称。每个AI Provider有多个model,见下方说明
|baidu、azure不支持此参数 |
|deploymentId |string |
否 |- |azure模型部署id,如使用uni-ai计费网关无需传递此参数、而是要传model,详见下方说明
|仅azure支持此参数 |
|~~maxTokens~~ |number |否
|- |【已废弃,请使用tokensToGenerate替代】生成的token数量限制,需要注意此值和传入的messages对应的token数量相加不可大于4096
|baidu不支持此参数 |
|tokensToGenerate |number |否
|默认值见下方说明 |生成的token数量限制,需要注意此值和传入的messages对应的token数量相加不可大于4096
|baidu不支持此参数 |
|temperature |number |否
|1 |较高的值将使输出更加随机,而较低的值将使输出更加集中和确定。建议temperature和top_p同时只调整其中一个
|baidu不支持此参数 |
|topP |number |否
|1 |采样方法,数值越小结果确定性越强;数值越大,结果越随机
|baidu不支持此参数 |
|stream |boolean|否
|false |是否使用流式响应,见下方
[
流式响应
](
#chat-completion-stream
)
章节
|baidu不支持此参数 |
|sseChannel |object |通过uni-ai计费网关使用流式响应时必填 |- |见下方
[
流式响应
](
#chat-completion-stream
)
章节。客户端如何获取sseChannel对象,请参考:
[
云函数请求中的中间状态通知通道
](
sse-channel.md
)
|baidu不支持此参数 |
**messages参数说明**
...
...
@@ -188,12 +188,11 @@ DCloud在[uni-ai-chat](https://uniapp.dcloud.net.cn/uniCloud/uni-ai-chat.html)
如果您需要非常精准的问答,且不在乎成本,推荐使用
`gpt-4`
。如果是普通的文章内容生成、续写,大多数模型均可胜任。
|服务商 |接口 |模型 |
|--- |--- |--- |
|openai |chatCompletion |gpt-4、gpt-4-0314、gpt-4-32k、gpt-4-32k-0314、gpt-3.5-turbo(默认值)、gpt-3.5-turbo-0301 |
|minimax|chatCompletion |abab4-chat、abab5-chat(默认值) |
azure仅需要填写deploymentId不需要填写模型名称
|服务商 |接口 |模型 |
|--- |--- |--- |
|openai |chatCompletion |gpt-4、gpt-4-0314、gpt-4-32k、gpt-4-32k-0314、gpt-3.5-turbo(默认值)、gpt-3.5-turbo-0301|
|minimax |chatCompletion |abab4-chat、abab5-chat(默认值) |
|azure(通过uni-ai计费网关调用)|chatCompletion |gpt-3.5-turbo(默认值) |
**tokensToGenerate参数说明**
...
...
@@ -205,7 +204,7 @@ tokensToGenerate指生成的token数量限制,即返回的文本对应的token
**deploymentId参数说明**
使用uni-ai计费网关访问azure服务时需要传递model而不是deploymentId,目前通过uni-ai计费网关调用azure接口仅支持
`gpt-3.5-turbo`
这一个模型
自行设置apikey调用azure接口时需要传deploymentId,使用uni-ai计费网关访问azure服务时需要传递model而不是deploymentId,目前通过uni-ai计费网关调用azure接口仅支持
`gpt-3.5-turbo`
这一个模型。
**chatCompletion方法的返回值**
...
...
@@ -646,6 +645,18 @@ try {
如果在您的传统服务器和uniCloud云函数之间需要建立安全通信机制,可使用s2s公共模块,
[
详见
](
uni-cloud-s2s.md
)
## 从免费版升级到uni-ai计费网关@migrate-to-uni-ai-gateway
uni-ai计费网关支持调用azure、minimax的对话接口,调用getLLMManager时如果不传provider会使用minimax作为服务商。在开始使用前需要购买uni-ai套餐包,购买流程参考:
[
uni-ai开通流程
](
uni-ai-buy.md#enable-uni-ai-service
)
如果使用uni-ai-chat直接更新uni-ai-chat到1.2.0版本即可。
如果未使用uni-ai-chat,如果客户端通过云函数url化调用云函数/云对象,需要在
`getLLMManager`
方法内传appId参数,callFunction方式调用时
`getLLMManager`
方法无需调整。
在使用非流式响应时,
`chatCompletion`
方法无需调整,和免费版用法一致。
在使用流式响应时,需要将sseChannel对象传给
`chatCompletion`
方法。详情参考:
[
使用流式响应
](
#chat-completion-stream
)
## 交流群
更多问题欢迎加入uni-ai官方交流群 qq群号:
[
699680439
](
https://qm.qq.com/cgi-bin/qm/qr?k=P_JoYXY56vNfb78uNHwwzqpODwl9e89B&jump_from=webapi&authKey=GDp321q9ZYW4V0ZQcejXikwMnNRs4KVBcQXMADs8lvC0hifSH9ORHsyERy6vO4bA
)
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录