自定义服务商
如果你用的 AI 服务不在 MoryFlow 的预设列表里,可以自己添加。
什么时候用
- 用兼容 OpenAI 协议的第三方服务
- 连接公司内部的 AI 服务
- 用其他聚合平台
- 试用新的 AI 服务
OpenAI 兼容协议
大多数 AI 服务都兼容 OpenAI 的 API 协议,也就是说只要知道:
- API 端点(Base URL)
- API Key
- 模型名称
就能在 MoryFlow 里用。
添加服务商
怎么添加
- 打开设置 → 模型管理
- 滚到「自定义服务商」
- 点「添加服务商」

要填什么
| 配置项 |
说明 |
示例 |
| 名称 |
显示名称 |
My AI Service |
| Base URL |
API 端点地址 |
https://api.example.com/v1 |
| API Key |
认证密钥 |
sk-xxxxx |
| 模型列表 |
可用的模型 |
gpt-4, gpt-3.5-turbo |
常见服务商配置
Azure OpenAI
Base URL: https://{your-resource}.openai.azure.com/openai/deployments/{deployment-name}
API Key: 你的 Azure API Key
Groq
Base URL: https://api.groq.com/openai/v1
API Key: 你的 Groq API Key
模型: llama-3.1-70b-versatile, mixtral-8x7b-32768
Together AI
Base URL: https://api.together.xyz/v1
API Key: 你的 Together API Key
模型: meta-llama/Llama-3-70b-chat-hf
Perplexity
Base URL: https://api.perplexity.ai
API Key: 你的 Perplexity API Key
模型: llama-3.1-sonar-large-128k-online
本地 LM Studio
Base URL: http://localhost:1234/v1
API Key: 留空或随便填
模型: 在 LM Studio 里加载的模型名
本地 vLLM
Base URL: http://localhost:8000/v1
API Key: 留空
模型: 你部署的模型名
添加自定义模型
配置好服务商后,还要添加可用的模型:
- 在服务商配置里点「添加模型」
- 填模型信息:
- 模型 ID:API 调用时用的名字
- 显示名称:界面上显示的名字
- 上下文窗口:模型支持的最大 token 数
- 能力标签:标记模型支持什么功能

测试一下
配置完建议测试一下:
- 在聊天面板选新加的模型
- 发条简单消息
- 看看能不能正常回复
出问题了
连接失败
- 检查 Base URL 对不对(一般以
/v1 结尾)
- 确认 API Key 有效
- 检查网络能不能访问这个服务
模型用不了
- 确认模型 ID 拼写对了
- 确认这个模型在你账户里可用
- 检查服务商有没有地区限制
响应格式不对
有些服务商可能不完全兼容 OpenAI 协议,可能需要:
安全提醒
- API Key 存在本地,不会上传
- 用自建服务时,确保通信加密(HTTPS)
- 定期换一下 API Key