配置分级 AI (Tier AI)
Memfit 采用分级 AI 架构,允许您为不同类型的任务配置不同级别的 AI 模型,在性能与成本之间取得最佳平衡。
为什么需要分级 AI
在实际使用中,并非所有任务都需要最强大的 AI 模型:
- 简单的信息分类和路由判断,使用轻量模型即可快速完成
- 复杂的任务规划和深度分析,需要高级推理模型来保证质量
- 涉及图像内容的理解,则需要具备视觉能力的模型
分级 AI 让 Memfit 能够智能地为每个任务选择合适的模型,避免杀鸡用牛刀,也避免力不从心。
三个模型层级
Memfit 将 AI 模型划分为三个层级,每个层级承担不同的职责:
智能模型 (Intelligent)
高级推理模型,用于处理需要深度思考的复杂任务。
- 典型用途: 任务规划、安全审计分析、代码审计、复杂问题推理
- 推荐模型: GPT-4、Claude 3.5 Sonnet、DeepSeek R1 等
- 特点: 推理能力强,但调用成本较高、响应速度较慢
轻量模型 (Lightweight)
快速响应模型,用于处理简单直接的任务。
- 典型用途: 意图分类、信息提取、简单问答、任务路由
- 推荐模型: GPT-4o-mini、Claude 3.5 Haiku、DeepSeek V3 等
- 特点: 响应速度快、成本低,适合高频调用
视觉模型 (Vision)
具备图像理解能力的模型,用于处理包含视觉信息的任务。
- 典型用途: 截图分析、验证码识别、界面元素理解、图表解读
- 推荐模型: GPT-4o、Claude 3.5 Sonnet 等支持视觉的模型
- 特点: 能够理解和分析图像内容
配置步骤
进入 AI 配置
在 Memfit 中,进入 设置 -> AI 配置 页面,找到分级 AI 配置区域。

配置智能模型
在智能模型配置区域,添加您的高级 AI 模型:
- 选择 AI 提供商(如 OpenAI、Anthropic、或自定义兼容端点)
- 填写 API Key
- 选择模型(如
gpt-4、claude-3-5-sonnet) - 如有需要,配置自定义 API 地址(Base URL)

配置轻量模型
和高级模型配置一样,可以在配置框中选择"模型类型" 可以配置轻量模型
- 选择 AI 提供商
- 填写 API Key(可与智能模型共用同一提供商)
- 选择轻量级模型(如
gpt-4o-mini、claude-3-5-haiku)

配置视觉模型(可选)
如果您需要 AI 处理图像相关任务,可以配置视觉模型:
- 选择支持视觉能力的 AI 提供商
- 选择支持图像输入的模型(如
gpt-4o)
选择路由策略
Memfit 提供四种模型路由策略,决定在任务执行时如何选择模型:
| 策略 | 说明 | 适用场景 |
|---|---|---|
| 自动 (Auto) | 根据任务特征自动选择合适的模型层级 | 推荐大多数用户使用 |
| 性能优先 (Performance) | 优先使用智能模型,确保最佳推理质量 | 对结果质量要求高、不敏感于成本 |
| 成本优先 (Cost) | 优先使用轻量模型,降低调用费用 | 高频使用、预算有限 |
| 均衡 (Balance) | 在性能和成本之间取得平衡 | 日常通用使用 |

测试配置
配置完成后,建议测试 AI 模型的连通性,确认配置正确:
- 在配置页面中使用测试功能验证连接
- 确认每个已配置的模型层级都能正常响应
降级机制
Memfit 内置了智能降级机制,保障服务的连续性:
- 当智能模型不可用(如 API 超时、额度耗尽)时,系统会自动降级到轻量模型继续执行任务
- 如果您不希望自动降级,可以在配置中禁用此行为
这意味着即使某个模型暂时不可用,Memfit 也能尽可能保持工作不中断。
配置建议
入门配置
如果您刚开始使用,建议先配置一个 AI 提供商,同时用于智能模型和轻量模型,选择 自动 (Auto) 路由策略:
- 智能模型:
gpt-4或claude-3-5-sonnet - 轻量模型:
gpt-4o-mini或claude-3-5-haiku - 路由策略: 自动
进阶配置
随着使用深入,您可以:
- 为不同层级配置不同提供商,实现多源冗余
- 根据实际使用情况调整路由策略
- 配置视觉模型以支持图像相关任务
下一步
AI 配置完成后,您已经准备好开始使用 Memfit 了:
- 你好,Memfit! - 开始你的第一次 AI Agent 体验
- 配置指南 - 更多高级配置选项