Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
DCloud
unidocs-zh
提交
3b2f9481
unidocs-zh
项目概览
DCloud
/
unidocs-zh
通知
3216
Star
106
Fork
815
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
94
列表
看板
标记
里程碑
合并请求
70
DevOps
流水线
流水线任务
计划
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
unidocs-zh
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
94
Issue
94
列表
看板
标记
里程碑
合并请求
70
合并请求
70
Pages
DevOps
DevOps
流水线
流水线任务
计划
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
流水线任务
提交
Issue看板
提交
3b2f9481
编写于
6月 28, 2023
作者:
雪洛
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
docs: update uni-ai
上级
dc80e945
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
9 addition
and
3 deletion
+9
-3
docs/uniCloud/uni-ai.md
docs/uniCloud/uni-ai.md
+9
-3
未找到文件。
docs/uniCloud/uni-ai.md
浏览文件 @
3b2f9481
...
...
@@ -140,12 +140,12 @@ const llmManager = uniCloud.ai.getLLMManager({
|messages |array |是 | - |提问信息 | |
|model |string |否 |默认值见下方说明 |模型名称。每个AI Provider有多个model,见下方说明 |baidu、azure不支持此参数 |
|deploymentId |string |否 |- |azure模型部署id,如使用uni-ai计费网关无需传递此参数、而是要传model,详见下方说明 |仅azure支持此参数 |
|~~maxTokens~~ |number |否 |- |【已废弃,请使用tokensToGenerate替代】生成的token数量限制,需要注意此值和传入的messages对应的token数量相加不可大于4096 |baidu不支持此参数 |
|tokensToGenerate |number |否 |默认值见下方说明 |生成的token数量限制,需要注意此值和传入的messages对应的token数量相加不可大于4096 |baidu不支持此参数 |
|temperature |number |否 |1 |较高的值将使输出更加随机,而较低的值将使输出更加集中和确定。建议temperature和top_p同时只调整其中一个 |baidu不支持此参数 |
|topP |number |否 |1 |采样方法,数值越小结果确定性越强;数值越大,结果越随机 |baidu不支持此参数 |
|stream |boolean|否 |false |是否使用流式响应,见下方
[
流式响应
](
#chat-completion-stream
)
章节 |baidu不支持此参数 |
|sseChannel |object |通过uni-ai计费网关使用流式响应时必填 |- |见下方
[
流式响应
](
#chat-completion-stream
)
章节。客户端如何获取sseChannel对象,请参考:
[
云函数请求中的中间状态通知通道
](
sse-channel.md
)
|baidu不支持此参数 |
|~~maxTokens~~ |number |否 |- |【已废弃,请使用tokensToGenerate替代】生成的token数量限制,需要注意此值和传入的messages对应的token数量相加不可大于模型最大上下文token数|baidu不支持此参数 |
|tokensToGenerate |number |否 |默认值见下方说明 |生成的token数量限制,需要注意此值和传入的messages对应的token数量相加不可大于模型最大上下文token数|baidu不支持此参数 |
|streamEventForSSE|string |否 |message |自动处理流式响应时使用的流式响应回调事件,可选:message、optimizedMessage、line。见下方
[
流式响应
](
#chat-completion-stream
)
章节 |
**messages参数说明**
...
...
@@ -239,11 +239,17 @@ DCloud在[uni-ai-chat](https://uniapp.dcloud.net.cn/uniCloud/uni-ai-chat.html)
|minimax |chatCompletion |abab4-chat、abab5-chat(默认值) |
|azure(通过uni-ai计费网关调用)|chatCompletion |gpt-3.5-turbo(默认值) |
模型最大上下文token数
openai gpt-3.5-turbo: 4097
azure gpt-3.5-turbo: 8192
abab4-chat、abab5-chat: 4096
**tokensToGenerate参数说明**
tokensToGenerate指生成的token数量限制,即返回的文本对应的token数量不能超过此值。注意这个值不是总token。
注意此值和传入messages对应的token数量,两者相加不可大于
4096。如果messages对应的token数为1024,当传递的tokensToGenerate参数大于(4096
-1024)时接口会抛出错误。
注意此值和传入messages对应的token数量,两者相加不可大于
模型最大上下文token数。如果messages对应的token数为1024,当传递的tokensToGenerate参数大于(模型最大上下文token数
-1024)时接口会抛出错误。
使用minimax时默认最多生成512个token的结果,也就是返回结果不会很长。如有需求请自行调整此值。
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录