diff --git a/docs/uniCloud/uni-ai.md b/docs/uniCloud/uni-ai.md index f592da74e7cfbd8101317daa023a4a7cf2eefb56..2d6fe6d35d4270bb52c4fd8eb4eacc3e89552e09 100644 --- a/docs/uniCloud/uni-ai.md +++ b/docs/uniCloud/uni-ai.md @@ -125,7 +125,7 @@ LLM不等于ai的全部,除了LLM,还有ai生成图片等其他模型。 |参数 |类型 |必填 |默认值 |说明 | |--- |--- |--- |--- |--- | -|provider |string |否 |- |llm服务商,目前支持`openai`、`baidu`、`minimax`、`azure`(azure新增于HBuilderX 3.8.3)。 | +|provider |string |是 |- |llm服务商,目前支持`openai`、`baidu`、`minimax`、`azure`(azure新增于HBuilderX 3.8.3)。 | |apiKey |string |openai、azure、minimax必填 |- |llm服务商的apiKey。指定openai、azure或minimax作为服务商则必填 | |accessToken|string |baidu必填 |- |llm服务商的accessToken。目前百度文心一言是必填,如何获取请参考:[百度AI鉴权认证机制](https://ai.baidu.com/ai-doc/REFERENCE/Ck3dwjhhu),需确保已开通相关接口的调用权限| |groupId |string |minimax必填 |- |llm服务商的groupId参数。指定minimax作为服务商则必填 | @@ -156,7 +156,7 @@ const openai = uniCloud.ai.getLLMManager({ 解决方案是开发者需要在云函数中配置自己的key,可以自行向openai、baidu、minimax等支持的llm服务商申请key。 -对于线上有正在使用minimax的应用,可以直接更新云函数为getLLMManager方法配置上minimax的调用凭证(groupId、apiKey)。如果你有使用uni-ai-chat,需要在uni-ai-chat的配置文件的llm字段中配置minimax的调用凭证,参考:[uni-ai-chat配置](uni-ai-chat.md#config)。目前仅更新了云端扩展库,HBuilderX本地调试使用的扩展库会在HBuilderX下次发版时进行更新。 +对于线上有正在使用minimax的应用,可以直接更新云函数为getLLMManager方法配置上minimax的调用凭证(provider、groupId、apiKey)。如果你有使用uni-ai-chat,需要在uni-ai-chat的配置文件的llm字段中配置minimax的调用凭证,参考:[uni-ai-chat配置](uni-ai-chat.md#config)。目前仅更新了云端扩展库,HBuilderX本地调试使用的扩展库会在HBuilderX下次发版时进行更新。 开发者使用openai等已经商用的ai时,需自行向相关服务商支付费用。