Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
DCloud
unidocs-zh
提交
e74da59a
unidocs-zh
项目概览
DCloud
/
unidocs-zh
通知
3593
Star
108
Fork
920
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
120
列表
看板
标记
里程碑
合并请求
108
DevOps
流水线
流水线任务
计划
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
unidocs-zh
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
120
Issue
120
列表
看板
标记
里程碑
合并请求
108
合并请求
108
Pages
DevOps
DevOps
流水线
流水线任务
计划
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
流水线任务
提交
Issue看板
提交
e74da59a
编写于
7月 25, 2023
作者:
雪洛
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
docs: update uni-ai
上级
bf25dfec
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
33 addition
and
29 deletion
+33
-29
docs/uniCloud/uni-ai.md
docs/uniCloud/uni-ai.md
+33
-29
未找到文件。
docs/uniCloud/uni-ai.md
浏览文件 @
e74da59a
...
@@ -35,6 +35,9 @@ LLM不等于ai的全部,除了LLM,还有ai生成图片等其他模型。
...
@@ -35,6 +35,9 @@ LLM不等于ai的全部,除了LLM,还有ai生成图片等其他模型。
注意需在相关云函数或云对象中加载
`uni-cloud-ai`
[
使用扩展库
](
cf-functions.md#extension
)
,否则会报找不到ai对象。
注意需在相关云函数或云对象中加载
`uni-cloud-ai`
[
使用扩展库
](
cf-functions.md#extension
)
,否则会报找不到ai对象。
> 在2023年06月15日前,您不填写相关apiKey时可以免费使用uni-ai的LLM能力。但6月15日起需配置自己的apiKey或使用`uni-ai计费网关`,否则无法使用。详见[uni-ai计费老用户升级指南](#migrate-to-uni-ai-gateway)
> 2023年07月25日非uni-ai计费网关调用百度接口由内测接口调整为[文心千帆大模型接口](https://cloud.baidu.com/doc/WENXINWORKSHOP/s/jlil56u11),HBuilderX本地调试会在下次HBuilderX发版时生效。
**参数说明GetLLMManagerOptions**
**参数说明GetLLMManagerOptions**
|参数 |类型 |必填 |默认值 |说明 |
|参数 |类型 |必填 |默认值 |说明 |
...
@@ -52,8 +55,6 @@ LLM不等于ai的全部,除了LLM,还有ai生成图片等其他模型。
...
@@ -52,8 +55,6 @@ LLM不等于ai的全部,除了LLM,还有ai生成图片等其他模型。
您可以自行去大模型厂商处注册并填写相应的apiKey的参数。也可以通过DCloud来购买,即使用
`uni-ai计费网关`
。
您可以自行去大模型厂商处注册并填写相应的apiKey的参数。也可以通过DCloud来购买,即使用
`uni-ai计费网关`
。
在2023-06-15前,您不填写相关apiKey时可以免费使用uni-ai的LLM能力。但6月15日起需配置自己的apiKey或使用
`uni-ai计费网关`
,否则无法使用。详见
[
uni-ai计费老用户升级指南
](
#migrate-to-uni-ai-gateway
)
`uni-ai计费网关`
使用门槛低,并且可以一处充值,多模型体验。您无需在多个大模型厂商处申请,只需向DCloud购买token套餐,即可体验各种大模型的效果。
`uni-ai计费网关`
使用门槛低,并且可以一处充值,多模型体验。您无需在多个大模型厂商处申请,只需向DCloud购买token套餐,即可体验各种大模型的效果。
`uni-ai计费网关`
的token计费单价与大模型厂商的定价相同,支持开具发票。
`uni-ai计费网关`
的token计费单价与大模型厂商的定价相同,支持开具发票。
...
@@ -136,18 +137,18 @@ const llmManager = uniCloud.ai.getLLMManager({
...
@@ -136,18 +137,18 @@ const llmManager = uniCloud.ai.getLLMManager({
**参数说明ChatCompletionOptions**
**参数说明ChatCompletionOptions**
|参数 |类型
|必填 |默认值 |说明 |兼容性说明
|
|参数 |类型
|必填 |默认值 |说明 |兼容性说明
|
|--- |---
|--- |--- |--- |---
|
|--- |---
|--- |--- |--- |---
|
|messages |array
|是 | - |提问信息 |
|
|messages |array
|是 | - |提问信息 |
|
|model |string
|否 |默认值见下方说明 |模型名称。每个AI Provider有多个model,见下方说明|ifly、baidu、azure不支持此参数
|
|model |string
|否 |默认值见下方说明 |模型名称。每个AI Provider有多个model,见下方说明 |ifly、baidu、azure(非uni-ai计费网关调用)不支持此参数
|
|deploymentId |string
|否 |- |azure模型部署id,如使用uni-ai计费网关无需传递此参数、而是要传model,详见下方说明|仅azure支持此参数
|
|deploymentId |string
|否 |- |azure模型部署id,如使用uni-ai计费网关无需传递此参数、而是要传model,详见下方说明 |仅azure(非uni-ai计费网关调用)支持此参数
|
|~~maxTokens~~ |number
|否 |- |【已废弃,请使用tokensToGenerate替代】生成的token数量限制,需要注意此值和传入的messages对应的token数量相加不可大于模型最大上下文token数|baidu不支持此参数
|
|~~maxTokens~~ |number
|否 |- |【已废弃,请使用tokensToGenerate替代】生成的token数量限制,需要注意此值和传入的messages对应的token数量相加不可大于模型最大上下文token数|baidu不支持此参数
|
|tokensToGenerate |number
|否 |默认值见下方说明 |生成的token数量限制,需要注意此值和传入的messages对应的token数量相加不可大于模型最大上下文token数|baidu不支持此参数
|
|tokensToGenerate |number
|否 |默认值见下方说明 |生成的token数量限制,需要注意此值和传入的messages对应的token数量相加不可大于模型最大上下文token数 |baidu不支持此参数
|
|temperature |number
|否 |1 |较高的值将使输出更加随机,而较低的值将使输出更加集中和确定。建议temperature和top_p同时只调整其中一个|baidu不支持此参数
|
|temperature |number
|否 |1 |较高的值将使输出更加随机,而较低的值将使输出更加集中和确定。建议temperature和top_p同时只调整其中一个 |baidu ERNIE-Bot-turbo不支持此参数
|
|topP |number
|否 |1 |采样方法,数值越小结果确定性越强;数值越大,结果越随机|ifly、baidu不支持此参数
|
|topP |number
|否 |1 |采样方法,数值越小结果确定性越强;数值越大,结果越随机 |ifly、baidu ERNIE-Bot-turbo不支持此参数
|
|stream |boolean
|否 |false |是否使用流式响应,见下方
[
流式响应
](
#chat-completion-stream
)
章节|baidu不支持此参数
|
|stream |boolean
|否 |false |是否使用流式响应,见下方
[
流式响应
](
#chat-completion-stream
)
章节 |
|
|sseChannel |object
|通过uni-ai计费网关使用流式响应时必填|- |见下方
[
流式响应
](
#chat-completion-stream
)
章节。客户端如何获取sseChannel对象,请参考:
[
云函数请求中的中间状态通知通道
](
sse-channel.md
)
|baidu不支持此参数
|
|sseChannel |object
|通过uni-ai计费网关使用流式响应时必填 |- |见下方
[
流式响应
](
#chat-completion-stream
)
章节。客户端如何获取sseChannel对象,请参考:
[
云函数请求中的中间状态通知通道
](
sse-channel.md
)
|
|
|streamEventForSSE|string |否 |message |自动处理流式响应时使用的流式响应回调事件,可选:message、optimizedMessage、line。见下方
[
流式响应
](
#chat-completion-stream
)
章节 |
|streamEventForSSE|string |否 |message |自动处理流式响应时使用的流式响应回调事件,可选:message、optimizedMessage、line。见下方
[
流式响应
](
#chat-completion-stream
)
章节
|
|
**messages参数说明**
**messages参数说明**
...
@@ -239,13 +240,16 @@ DCloud在[uni-ai-chat](https://uniapp.dcloud.net.cn/uniCloud/uni-ai-chat.html)
...
@@ -239,13 +240,16 @@ DCloud在[uni-ai-chat](https://uniapp.dcloud.net.cn/uniCloud/uni-ai-chat.html)
|openai |chatCompletion |gpt-4、gpt-4-0314、gpt-4-32k、gpt-4-32k-0314、gpt-3.5-turbo(默认值)、gpt-3.5-turbo-0301 |
|openai |chatCompletion |gpt-4、gpt-4-0314、gpt-4-32k、gpt-4-32k-0314、gpt-3.5-turbo(默认值)、gpt-3.5-turbo-0301 |
|minimax |chatCompletion |abab4-chat、abab5-chat(默认值) |
|minimax |chatCompletion |abab4-chat、abab5-chat(默认值) |
|azure(通过uni-ai计费网关调用)|chatCompletion |gpt-3.5-turbo(默认值) |
|azure(通过uni-ai计费网关调用)|chatCompletion |gpt-3.5-turbo(默认值) |
|baidu(文心千帆)|chatCompletion |ERNIE-Bot(默认值)、ERNIE-Bot-turbo |
模型最大上下文token数
**模型最大上下文token数、字数限制**
openai gpt-3.5-turbo: 4097
openai gpt-3.5-turbo: 4097
azure gpt-3.5-turbo: 8192
azure gpt-3.5-turbo: 8192
abab4-chat、abab5-chat: 4096
abab4-chat、abab5-chat: 4096
baidu文心千帆最后一个message的content长度(即此轮对话的问题)不能超过2000个字符;如果messages中content总长度大于2000字符,系统会依次遗忘最早的历史会话,直到content的总长度不超过2000个字符
**tokensToGenerate参数说明**
**tokensToGenerate参数说明**
tokensToGenerate指生成的token数量限制,即返回的文本对应的token数量不能超过此值。注意这个值不是总token。
tokensToGenerate指生成的token数量限制,即返回的文本对应的token数量不能超过此值。注意这个值不是总token。
...
@@ -260,19 +264,19 @@ tokensToGenerate指生成的token数量限制,即返回的文本对应的token
...
@@ -260,19 +264,19 @@ tokensToGenerate指生成的token数量限制,即返回的文本对应的token
**chatCompletion方法的返回值**
**chatCompletion方法的返回值**
|参数
|类型 |必备 |默认值 |说明 |兼容性说明
|
|参数
|类型 |必备 |默认值 |说明 |兼容性说明
|
|---
|--- |--- |--- |--- |---
|
|---
|--- |--- |--- |--- |---
|
|id
|string |openai必备 | - |本次回复的id |仅openai返回此项
|
|id
|string |openai必备 | - |本次回复的id |仅openai返回此项
|
|reply
|string |是 | - |ai对本次消息的回复 |
|
|reply
|string |是 | - |ai对本次消息的回复 |
|
|choices
|array
<
object
>
|否 |- |所有生成结果 |百度文心一言不返回此项
|
|choices
|array
<
object
>
|否 |- |所有生成结果 |百度不返回此项
|
|
|
--finishReason
|string |否 |- |截断原因,stop(正常结束)、length(超出maxTokens被截断) |
|
|
|
--finishReason
|string |否 |- |截断原因,stop(正常结束)、length(超出maxTokens被截断)|
|
|
|
--message
|object |否 |- |返回消息 |
|
|
|
--message
|object |否 |- |返回消息 |
|
|
|
--role
|string |否 |- |角色 |
|
|
|
--role
|string |否 |- |角色 |
|
|
|
--content|string
|否 |- |消息内容 |
|
|
|
--content|string
|否 |- |消息内容 |
|
|usage
|object |是 |- |本次对话token消耗详情 |
|
|usage
|object |是 |- |本次对话token消耗详情 |
|
|
|
--promptTokens
|number |否 |- |输入的token数量 |minimax返回undefined
|
|
|
--promptTokens
|number |否 |- |输入的token数量 |minimax返回undefined
|
|
|
--completionTokens
|number |否 |- |生成的token数量 |minimax返回undefined
|
|
|
--completionTokens
|number |否 |- |生成的token数量 |minimax返回undefined
|
|
|
--totalTokens
|number |是 |- |总token数量 |
|
|
|
--totalTokens
|number |是 |- |总token数量 |
|
#### 简单示例
#### 简单示例
...
@@ -437,7 +441,7 @@ DCloud提供了开源的`uni-ai-chat`,对流式响应进行了前后端一体
...
@@ -437,7 +441,7 @@ DCloud提供了开源的`uni-ai-chat`,对流式响应进行了前后端一体
|参数 |类型 |必填 |默认值 |说明 |
|参数 |类型 |必填 |默认值 |说明 |
|--- |--- |--- |--- |--- |
|--- |--- |--- |--- |--- |
|provider |string |否 |- |服务商,目前仅支持
`baidu`
。 |
|provider |string |否 |- |服务商,目前仅支持
`baidu`
。 |
|accessToken|string |否 |- |llm服务商的accessToken。目前百度
文心一言
是必填,如何获取请参考:
[
百度AI鉴权认证机制
](
https://ai.baidu.com/ai-doc/REFERENCE/Ck3dwjhhu
)
|
|accessToken|string |否 |- |llm服务商的accessToken。目前百度是必填,如何获取请参考:
[
百度AI鉴权认证机制
](
https://ai.baidu.com/ai-doc/REFERENCE/Ck3dwjhhu
)
|
**示例**
**示例**
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录