OpenClaw 省钱终极指南:月花从 $200 砍到 $10-50 的 10 步配置
OpenClaw 省钱终极指南
来源:https://x.com/lijiuer92/status/2025081922410443243 作者:@lijiuer92 发布时间:2026-02-21 数据:👍 504 | 🔁 108 | 👁 75,817 转载声明:本文转载自 X,原作者 @lijiuer92,版权归原作者所有。
OpenClaw 目前最强开源 AI Agent,它真的能干活。但大多数人第一个月的账单会吓一跳。
三句话概括:
- 你 80% 的钱花在了你不知道的地方(心跳守护进程、会话膨胀、未用 Skill 注入)
- 2026 年 2 月的版本更新(Sonnet 4.6 + 1M Context + 嵌套子 Agent)彻底改写了性价比公式
- 照着做 10 步配置,月花从 $200+ 砍到 $10-50 不是玄学,是社区已验证的事实
不想看原理的,直接跳到第六节「10 步省钱清单」。
一、你的钱到底花在哪了

五个吞金黑洞,按杀伤力排序:
🕳️ 黑洞 1:心跳守护进程——你睡了,它在烧钱
OpenClaw 的 Heartbeat Daemon 每 30 分钟自动唤醒 Agent。每次心跳都是一次完整 API 调用,携带全部对话历史。
当会话累积到 17-21 万 token 时:一次心跳 $0.51-$0.63,一天 48 次,一个月 $720-$900。你什么都没做,Agent 自己在后台烧掉了你一个月的伙食费。
🕳️ 黑洞 2:会话累积——用得越久,每句话越贵
第 1 轮说"你好"花 $0.003,第 50 轮说同样的"你好"花 $0.30——贵了 100 倍。
🕳️ 黑洞 3:系统 Prompt——每次请求都付的"底租"
典型系统 Prompt 5,000-10,000 token,每天 100 次交互,月消耗 $67.50。
🕳️ 黑洞 4:Skill 注入——装了但没用的 Skill 也在花钱
每个启用的 Skill 注入 200-400 token。装了 18 个只用 5 个?13 个未使用的每次浪费 3,200 token。
🕳️ 黑洞 5:工作区文件注入
GitHub Issue #9157:OpenClaw 在每条消息中注入工作区文件列表,浪费了 93.5% 的 token 预算。
二、2 月版本更新:必须知道的 3 件事

更新 1:Sonnet 4.6——免费升级,性能翻倍
ARC-AGI-2 从 13.6% 到 58.3%,4.3 倍提升。价格和 Sonnet 4.5 一模一样:$3/$15 per MTok。
用户偏好测试:Sonnet 4.6 vs Opus 4.5 = 59:41。超过一半的人觉得 Sonnet 4.6 不比 Opus 差,而 Sonnet 价格只有 Opus 的 60%。
更新 2:1M Context——有悬崖的扩容

⚠️ 关键陷阱:超过 200K 后,所有 token 全部翻倍。从 199K 到 201K,不是多了 2K token 的钱,而是所有 201K token 的单价都翻了。200K 是成本悬崖。
正确用法:即使有 1M,也应该在 200K 之前主动触发 compaction。
更新 3:嵌套子 Agent
最深 5 层,理论上最多 31 个并发 Agent 会话。每个都有独立 context,每个都在烧你的 token。正确做法:主 Agent 用 Opus 做决策,子 Agent 用 Sonnet/Haiku 做执行。
三、模型路由——ROI 最高的省钱策略

策略:Opus-as-Orchestrator
Opus 只做"将军":分析任务、制定计划、分配给便宜模型执行、审核结果。
成本对比(100K token/天):
- 全 Opus:$3.00/天
- Opus 调度 + Sonnet 执行:$1.92/天,省 36%
- Opus 调度 + Haiku 执行:$0.84/天,省 72%
嵌套子 Agent 让这个模式更强:主 Agent(Opus)→ 一级子 Agent(Sonnet)→ 二级子 Agent(Haiku)
四、Prompt Caching——Agent 场景的免费午餐

OpenClaw 系统 Prompt 动辄 5,000-10,000 token,每次请求中约 40-60% 是完全重复的。Anthropic 的 Prompt Caching 给这部分 90% 折扣。
轻度使用省 86%,中度省 88%,重度省 89%。对高频交互的 Agent,已经是几百美元的差距。
五、本地模型——零 API 成本的边界
ollama pull qwen3:32b
OpenClaw 原生支持 Ollama 自动发现,本地调用:$0。
质量底线:14B 以上。社区共识是 8B 模型在工具调用时频繁产生幻觉,对 Agent 场景致命。
六、10 步省钱清单(按优先级排序)

| 步骤 | 操作 | 预期节省 |
|---|---|---|
| 1 | 禁用原生心跳:agents.defaults.heartbeat.every: "0m" | $150-900/月 |
| 2 | 任务完成后立刻 /compact 重置会话 | 因人而异 |
| 3 | 切换默认模型到 Sonnet 4.6 | 省 40% |
| 4 | 禁用不用的 Skill | 200-400 token/次/Skill |
| 5 | thinkingDefault: "minimal" | 省 50% 推理 token |
| 6 | 启用 Prompt 缓存 | 省 86-89% |
| 7 | compaction.mode: "safeguard", targetTokens: 50000 | 省 token 又保记忆 |
| 8 | 模型路由:50% Haiku + 30% Sonnet + 20% Opus | 省 60-72% |
| 9 | SOUL.md 加"Be concise" + max_tokens 硬限制 | 省 30-50% |
| 10 | 部署本地模型(Ollama) | 月花直接砍半 |
七、真实案例

- $150 → $35/月(77% 削减):禁用 13 个未用 Skill + 任务完成即重置 + Prompt 缓存,投入不到 1 小时
- $1,200 → $50/月(96% 削减):完整模型路由 + 心跳切本地 + output 限制
- $400/月,但不想省:从 Disneyland 通过 Telegram 协调多个开发实例,"Better ROI than hiring staff"
八、速查配置模板

agents:
defaults:
model: "anthropic/claude-sonnet-4-6"
fallbackModel: "anthropic/claude-haiku-4-5"
heartbeat:
every: "0m" # 关闭心跳
thinking:
default: "minimal" # 推理最小化
compaction:
mode: "safeguard"
targetTokens: 50000 # 200K 前触发
subAgents:
model: "anthropic/claude-haiku-4-5"
thinking:
sonnet: false
opus: true
月预期花费:中度 $30-60,重度 $80-150。
原文链接:https://x.com/lijiuer92/status/2025081922410443243 | 转载自 @lijiuer92