Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
吹了一夜风~
unidocs-zh
提交
fb374edf
U
unidocs-zh
项目概览
吹了一夜风~
/
unidocs-zh
与 Fork 源项目一致
Fork自
DCloud / unidocs-zh
通知
1
Star
0
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
DevOps
流水线
流水线任务
计划
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
U
unidocs-zh
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
DevOps
DevOps
流水线
流水线任务
计划
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
流水线任务
提交
Issue看板
体验新版 GitCode,发现更多精彩内容 >>
提交
fb374edf
编写于
5月 22, 2023
作者:
雪洛
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
docs: update uniCloud uni-ai
上级
513c81a1
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
13 addition
and
10 deletion
+13
-10
docs/uniCloud/uni-ai.md
docs/uniCloud/uni-ai.md
+13
-10
未找到文件。
docs/uniCloud/uni-ai.md
浏览文件 @
fb374edf
...
...
@@ -125,7 +125,7 @@ LLM不等于ai的全部,除了LLM,还有ai生成图片等其他模型。
|参数 |类型 |必填 |默认值 |说明 |
|--- |--- |--- |--- |--- |
|provider |string |否 |- |llm服务商,目前支持
`openai`
、
`baidu`
、
`minimax`
。不指定时由uni-ai自动分配 |
|provider |string |否 |- |llm服务商,目前支持
`openai`
、
`baidu`
、
`minimax`
、
`azure`
(新增于HBuilderX 3.8.3)
。不指定时由uni-ai自动分配 |
|apiKey |string |否 |- |llm服务商的apiKey,如不填则使用uni-ai的key。如指定openai和baidu则必填 |
|accessToken|string |否 |- |llm服务商的accessToken。目前百度文心一言是必填,如何获取请参考:
[
百度AI鉴权认证机制
](
https://ai.baidu.com/ai-doc/REFERENCE/Ck3dwjhhu
)
|
|proxy |string |否 |- |可有效连接openai服务器的、可被uniCloud云函数连接的代理服务器地址。格式为IP或域名,域名不包含http前缀,协议层面仅支持https。配置为
`openai`
时必填 |
...
...
@@ -164,15 +164,16 @@ const openai = uniCloud.ai.getLLMManager({
**参数说明ChatCompletionOptions**
|参数 |类型 |必填 |默认值 |说明 |兼容性说明 |
|--- |--- |--- |--- |--- |--- |
|messages |array |是 | - |提问信息 | |
|model |string |否 |默认值见下方说明 |模型名称。每个AI Provider有多个model,见下方说明 |百度文心一言不支持此参数 |
|~~maxTokens~~ |number |否 |- |【已废弃,请使用tokensToGenerate替代】生成的token数量限制,需要注意此值和传入的messages对应的token数量相加不可大于4096 |百度文心一言不支持此参数 |
|tokensToGenerate |number |否 |默认值见下方说明 |生成的token数量限制,需要注意此值和传入的messages对应的token数量相加不可大于4096 |百度文心一言不支持此参数 |
|temperature |number |否 |1 |较高的值将使输出更加随机,而较低的值将使输出更加集中和确定。建议temperature和top_p同时只调整其中一个 |百度文心一言不支持此参数 |
|topP |number |否 |1 |采样方法,数值越小结果确定性越强;数值越大,结果越随机 |百度文心一言不支持此参数 |
|stream |boolean|否 |false |是否使用流式响应,见下方
[
流式响应
](
#chat-completion-stream
)
章节 |百度文心一言不支持此参数 |
|参数 |类型 |必填 |默认值 |说明 |兼容性说明 |
|--- |--- |--- |--- |--- |--- |
|messages |array |是 | - |提问信息 | |
|model |string |否 |默认值见下方说明 |模型名称。每个AI Provider有多个model,见下方说明 |baidu、azure不支持此参数 |
|deploymentId |string |azure必填|- |azure模型部署id |baidu不支持此参数 |
|~~maxTokens~~ |number |否 |- |【已废弃,请使用tokensToGenerate替代】生成的token数量限制,需要注意此值和传入的messages对应的token数量相加不可大于4096 |baidu不支持此参数 |
|tokensToGenerate |number |否 |默认值见下方说明 |生成的token数量限制,需要注意此值和传入的messages对应的token数量相加不可大于4096 |baidu不支持此参数 |
|temperature |number |否 |1 |较高的值将使输出更加随机,而较低的值将使输出更加集中和确定。建议temperature和top_p同时只调整其中一个 |baidu不支持此参数 |
|topP |number |否 |1 |采样方法,数值越小结果确定性越强;数值越大,结果越随机 |baidu不支持此参数 |
|stream |boolean|否 |false |是否使用流式响应,见下方
[
流式响应
](
#chat-completion-stream
)
章节 |baidu不支持此参数 |
**messages参数说明**
...
...
@@ -264,6 +265,8 @@ DCloud在[uni-im](https://uniapp.dcloud.net.cn/uniCloud/uni-im.html)和[uni-cms]
|openai |chatCompletion |gpt-4、gpt-4-0314、gpt-4-32k、gpt-4-32k-0314、gpt-3.5-turbo(默认值)、gpt-3.5-turbo-0301 |
|minimax|chatCompletion |abab4-chat、abab5-chat(默认值) |
azure仅需要填写deploymentId不需要填写模型名称
**tokensToGenerate参数说明**
tokensToGenerate指生成的token数量限制,即返回的文本对应的token数量不能超过此值。注意这个值不是总token。
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录