$cd ../integrations/
🤖 AI ModelsCloudv1.4+
$ cat claude-api.md

高级 Claude API 集成指南

/** 当本地模型达到瓶颈时,将复杂的推理任务路由至 Claude 3.5 Sonnet。保持“混合优先”的工作流。 */

architecture_vision.log

“混合优先 (Hybrid-First)” 哲学

OpenClaw 的设计理念是模型无关。虽然在 Ollama 上 100% 本地运行是保护隐私和节约成本的理想选择,但在处理某些特定任务时——例如大规模代码重构、复杂的逻辑谜题或超过 200K tokens 的文档分析——Claude 3.5 的前沿智能依然不可或缺。我们的集成方案专注于“智能路由”:利用本地模型进行意图分类和简单的自动化操作,同时透明地将复杂的高价值负载提升至 Anthropic 云端处理。

use_claude_when.md

🤔 何时选择 Claude 而非 Ollama

使用 Ollama (本地) 用于:
[ok] 实时聊天与桌面自动化操作
[ok] 处理敏感的个人信息 (PII) 或商业机密
[ok] 高频、低复杂度的任务 (如日志格式化)
[ok] 本地智能家居控制 (MQTT/HomeAssistant)
[ok] 零延迟的后台例行监控
使用 Claude (云端) 用于:
[ escalation ] 多步骤的系统架构推理
[ escalation ] 海量上下文窗口 (分析整个代码库)
[ escalation ] 高风险的代码审查与安全审计
[ escalation ] 法律、医疗或专业技术文档深度解析
[ escalation ] 将非结构化的语音转文本还原为精准的 JSON 结构
models.md

📊 前沿模型选型

ModelContextCost / 1M tokOptimized Usage
claude-3-5-sonnet-20241022200K$3 输入 / $15 输出编程与推理的业界金标准 ⭐
claude-3-5-haiku-20241022200K$0.80 / $4极速响应,比 GPT-4o-mini 更具性价比
claude-3-opus-20240229200K$15 / $75最高能力上限,处理最细腻的任务
Accelerated
prompt_caching.exe

高级功能:提示词缓存 (Prompt Caching)

针对重复性任务(例如对同一份超大 PDF 进行多次提问),OpenClaw 会自动启用 Anthropic 的提示词缓存功能。这可以将您的 API 成本降低多达 90%,并将相同上下文下的后续查询延迟降低 50%。

Cost Savings
-90%
Latency Reduction
-50%
config.yaml

⚙️ config.yaml 配置说明

# hybrid_routing_engine v1.1
"ai": {
"provider": "anthropic",
"api_key": "sk-ant-YOUR_KEY_HERE",
"model": "claude-3-5-sonnet-20241022",
"max_tokens": 8192
}

💡// 💡 高级技巧:为 Sonnet 设置 'max_tokens' 为 8192 以启用超长输出窗口。

troubleshooting.log

常见 API 错误代码与修复

429: Rate Limit Exceeded
$ 您已达到当前层级的配额限制。请考虑预充值以提升到 Tier 2+,或在本地实施请求延迟。
401: Invalid API Key
$ 检查 config.yaml 中是否存在多余空格,或确保使用了正确的 sk-ant- 前缀。
Overloaded Error (529)
$ Anthropic 服务器当前过载。高可靠性工作流应配置回退 (fallback) 至本地 Llama-3-70B 模型。

❓ FAQ

Q1. 支持哪些 Claude 模型?

Claude 3.5 Sonnet、Claude 3 Opus、Claude 3 Haiku、Claude 3.5 Haiku。

Q2. 能和本地模型混合吗?

能。复杂推理用 Claude,简单任务用本地模型。模型路由自动切换。
← 返回集成列表