语言模型配置--豆包大模型
变更记录
产品版本 | 更新内容 | 更新日期 |
V6.0.15 | 初始版本 | 2024年08月16日 |
1 简介
AI开发平台已适配火山引擎提供的豆包大模型服务,在【AI能力中心】应用中配置后即可使用。
备注:AI开发平台从6.0.15版本开始支持豆包大模型,如需使用,请将AI开发平台升级到最新版本
Doubao-pro-4k
Doubao-pro-32k
Doubao-pro-128k
2 操作步骤
2.1 获取ClientID密钥
登录火山方舟管理控制台,参考使用指南文档,获取Clientid 和 API 密钥。
2.1.1 获取Clientid方法:
进入火山方舟管理控制台,点击“在线推理”,创建“推理接入点”,创建后,记录下接入点名称(一般以“ep-”开头的一串字符)
2.1.2 获取API key方法:
点击“API key管理”-“创建API key”完成创建,记录下API key
2.2 配置算法服务
打开【AI服务云】→【AI能力中心】→【算法服务】,点击“新增”按钮后,维护服务编码、服务名称、模型类型及基础大模型字段,并打开是否支持流式字段。
其中,服务模型字段请选择“LLM”,基础大模型根据在【火山方舟管理控制台】中新增的推理接入点中选择的模型类型进行选择,如下表:
火山方舟推理接入模型 | AI能力中心基础大模型 |
Doubao-pro-4k | 豆包 pro 4k |
Doubao-pro-32k | 豆包 pro 32k |
Doubao-pro-128k | 豆包 pro 128k |
配置完成后,保存算法服务,并进行审核,将使用状态变为“可用”后,即可进行下一步。
2.3 配置服务实例
打开【AI服务云】→【AI能力中心】→【服务实例】,点击“新增”按钮。填写实例名称、最大并发数,并选择对应的算法服务。
配置信息中,字段可参考下表进行配置:
字段 | 字段值 |
认证方式 | TOKEN认证 |
ClientID | 2.1.1中获取的接入点名称 |
SecretKey | 2.1.2中获取的API密钥 |
代理用户密钥 | 无需填写 |
协议类型 | HTTPS |
主机 | ark.cn-beijing.volces.com |
端口 | 443 |
上下文地址 | /api/v3/chat/completions |
配置完成后,点击“保存”,并进行审核,使用状态变为“可用”后,即可进行下一步。
2.4 测试配置结果
语言模型配置测试需打开【AI服务云】→【AI开发平台】→【提示词】,打开“语言模型”下拉框,若对应的模型已变成为“已配置”状态后,即可输入提示词并测试模型效果。若配置后模型状态仍为“未配置”,请仔细检查算法服务的编码是否正确、算法服务及服务实例是否为“可用”状态。
注意:服务实例中的ClientID或SecretKey配置错误,会导致模型调用失败。此时可将对应服务实例“反审核”或“禁用”,修改正确后重新审核启用。或者新增服务实例配置正确的签名信息后审核并启用。若有多个可用实例,将自动轮询实例进行调用。
3 注意事项
事项1:AI开发平台从6.0.15版本开始支持豆包大模型,如需使用,请将AI开发平台升级到最新版本
事项2:算法服务/服务实例列表中,若已存在对应数据,则无需重复配置。
事项3:算法服务及服务实例保存后,用户可自行审核,审核单据并查看状态变为“可用”后,可进行使用。
事项4:服务实例中的ClientID或SecretKey配置错误,会导致模型调用失败。此时可将对应服务实例“反审核”或“禁用”,修改正确后重新审核启用。或者新增服务实例配置正确的签名信息后审核并启用。若有多个可用实例,将自动轮询实例进行调用。
4 参考资料
语言模型配置--豆包大模型
本文2024-09-23 01:01:56发表“云苍穹知识”栏目。
本文链接:https://wenku.my7c.com/article/kingdee-cangqiong-143314.html