如何在OpenClaw中切换模型?
2026-03-09 14:45 浏览: 次切换 OpenClaw 的 AI 模型是降低成本、适配不同任务的核心操作,核心逻辑是“通过配置命令指定模型的 API 地址、密钥和模型名称“,支持「云端模型切换」「本地模型切换」「多模型自动路由」三种场景,以下是新手友好的分步指南,附完整命令和验证方法。
一、核心切换逻辑
OpenClaw 本身不提供模型能力,所有推理依赖外部模型(云端 API/本地部署),切换模型本质是修改「模型配置参数」,关键参数包括:
- "llm.base_url":模型 API 地址(云端如 OpenAI 官网,本地如 Ollama 地址)
- "llm.api_key":模型 API 密钥(本地模型无需)
- "llm.model":模型名称(如 "gpt-4o-mini"/"qwen2.5:7b")
二、场景1:切换到云端低价模型(最常用)
适合日常任务(写邮件、总结、简单指令),以「GPT-4o Mini」「DeepSeek-R1」为例,成本仅为 GPT-4o 的 1/10。
1. 切换到 GPT-4o Mini(OpenAI 云端)
"""bash
1. 设置模型基础配置
claw config set llm.base_url https://api.openai.com/v1
claw config set llm.api_key "你的OpenAI API密钥" 替换为真实密钥
claw config set llm.model "gpt-4o-mini"
2. 验证配置是否生效
claw config get llm.model 输出应显示 gpt-4o-mini
3. 测试模型调用
claw run "用一句话总结 OpenClaw 的核心功能"
"""
2. 切换到 DeepSeek-R1(国内云端,更稳定)
"""bash
1. 设置 DeepSeek 配置
claw config set llm.base_url https://api.deepseek.com/v1
claw config set llm.api_key "你的DeepSeek API密钥"
claw config set llm.model "deepseek-r1"
2. 测试
claw run "写一封简单的工作日报模板"
"""
3. 常用云端低价模型参数表
| 模型名称 | base_url | model 名称 | 特点 | ||
| GPT-4o Mini | https://api.openai.com/v1 | gpt-4o-mini | 性价比高,英文友好 | ||
| DeepSeek-R1 | https://api.deepseek.com/v1 | deepseek-r1 | 中文友好,成本极低 | ||
| Gemini Flash | https://generativelanguage.googleapis.com/v1 | gemini-1.5-flash | 多模态,有免费额度 | ||
| Claude Haiku | https://api.anthropic.com/v1 | claude-3-haiku-20240307 | 长文本,成本低 | ||
三、场景2:切换到本地模型(0成本)
适合隐私敏感、不想付费的场景,以「Ollama 部署的 Qwen2.5/LLaMA 3.2」为例,完全本地运行,无 API 费用。
1. 前置准备(安装 Ollama)
"""bash
Mac/Linux 安装 Ollama
curl -fsSL https://ollama.com/install.sh | sh
Windows 需先装 WSL2,再执行上述命令
"""
2. 拉取并运行本地模型(选轻量版)
"""bash
拉取并运行通义千问 2.5(7B,平衡效果和速度)
ollama run qwen2.5:7b
或更小的 LLaMA 3.2(3B,速度极快)
ollama run llama3.2:3b
"""
3. OpenClaw 切换到本地模型
"""bash
1. 设置本地模型配置(无需 API Key)
claw config set llm.base_url http://localhost:11434/v1 Ollama 默认端口
claw config set llm.api_key "ollama" 固定值,无需修改
claw config set llm.model "qwen2.5:7b" 对应拉取的模型名称
2. 验证
claw config get llm.base_url 输出 http://localhost:11434/v1
3. 测试本地调用(无网络也能运行)
claw run "整理下载文件夹,按类型分类"
"""
四、场景3:多模型自动路由(进阶,成本最优)
让 OpenClaw 自动根据任务难度切换模型:
- 简单任务(文件操作、提醒)→ 本地模型(0成本)
- 复杂任务(长文本总结、推理)→ 云端低价模型
- 极复杂任务(多模态、专业推理)→ 高端模型(如 Claude Sonnet)
1. 安装模型路由技能
"""bash
clawhub install model-router
"""
2. 配置路由规则
"""bash
发送自然语言指令配置规则
claw run "配置模型路由规则:
1. 简单任务(文件整理、写邮件、定时提醒)→ 使用本地模型 qwen2.5:7b
2. 中等任务(长文本总结、数据分析)→ 使用 GPT-4o Mini
3. 复杂任务(多模态、代码开发)→ 使用 Claude Sonnet
所有规则自动生效,无需手动切换"
"""
3. 验证路由效果
"""bash
简单任务 → 本地模型
claw run "重命名桌面的 test.txt 为 工作笔记.txt"
中等任务 → GPT-4o Mini
claw run "总结 1000 字的会议记录,提取核心待办"
"""
五、关键操作:重置/恢复模型配置
1. 查看当前所有模型配置
"""bash
claw config list | grep llm 过滤出所有模型相关配置
"""
2. 重置模型配置(出错时用)
"""bash
claw config reset llm 重置所有模型配置为默认
"""
3. 恢复到之前的模型(如 Claude Sonnet)
"""bash
保存常用配置为模板(可选)
claw config save claude-sonnet 保存当前配置为 claude-sonnet 模板
恢复模板
claw config load claude-sonnet
"""
六、避坑要点
1. “本地模型启动前需确保 Ollama 运行“:
"""bash
ollama serve 启动 Ollama 服务(后台运行)
"""
2. “API Key 错误会导致调用失败“:
- 检查密钥是否复制完整(无空格、无多余字符)
- 云端模型需确保账号有余额
3. “模型名称必须完全匹配“:
- 本地模型名称需和 "ollama list" 输出一致(如 "qwen2.5:7b" 而非 "qwen2.5")
- 云端模型名称需和官方文档一致(如 "gpt-4o-mini" 而非 "gpt-4o mini")
4. “切换模型后重启 OpenClaw(可选)“:
"""bash
claw restart 确保配置生效
"""
总结
1. 切换 OpenClaw 模型核心是修改 "llm.base_url"/"llm.api_key"/"llm.model" 三个参数;
2. 日常任务优先用「云端低价模型」或「本地模型」,大幅降低成本;
3. 进阶可配置「模型路由」,让 OpenClaw 自动选最优模型,兼顾成本和效果;
4. 切换后通过 "claw run" 测试指令,验证模型是否正常调用。
【免责声明】:部分内容、图片来源于互联网,如有侵权请联系删除,QQ:228866015

