$cd ../integrations/
🤖 AI ModelsCloudv1.4+
$ cat claude-api.md
高度な Claude API 連携ガイド
/** ローカルモデルでは限界がある複雑な推論タスクを Claude 3.5 Sonnet にルーティング。ハイブリッド優先のワークフローを構築します。 */
architecture_vision.log
「ハイブリッド・ファースト (Hybrid-First)」の哲学
OpenClaw の設計理念は、モデルに依存しない(Model-agnostic)ことです。プライバシーやコストの観点からは Ollama による 100% ローカル実行が理想的ですが、大規模なコードのリファクタリング、複雑な論理パズル、あるいは 200K トークンを超える文書解析など、特定のタスクには Claude 3.5 のようなフロンティア級の知能が必要です。本連携では「インテリジェント・ルーティング」に焦点を当て、ローカルモデルで意図分類や単純な自動化を行い、難易度の高い高付加価値なペイロードを透過的に Anthropic クラウドへ昇格させる仕組みを提供します。
use_claude_when.md
🤔 Claude と Ollama の使い分け基準
Ollama (ローカル) を使う場面:
[ok] リアルタイムのチャットやデスクトップ自動化
[ok] 個人情報 (PII) や機密性の高い企業データの処理
[ok] ログの整形など、高頻度かつ低複雑度なタスク
[ok] ローカルのスマートホーム制御 (MQTT/HomeAssistant)
[ok] 遅延の許されないバックグラウンド定期実行
Claude (クラウド) を使う場面:
[ escalation ] 多段階のシステムアーキテクチャ推論
[ escalation ] 巨大なコンテキスト(ソースコード全体)の解析
[ escalation ] 重要度の高いコードレビューやセキュリティ監査
[ escalation ] 法的、医学的、または専門的な技術文書の深層解析
[ escalation ] 構造化されていない音声データを正確な JSON に変換
models.md
📊 フロンティアモデルの選択
| Model | Context | Cost / 1M tok | Optimized Usage |
|---|---|---|---|
| claude-3-5-sonnet-20241022 | 200K | 入力$3 / 出力$15 | コーディングと推論の業界標準 ⭐ |
| claude-3-5-haiku-20241022 | 200K | $0.80 / $4 | 超高速、GPT-4o-mini より優れた費用対効果 |
| claude-3-opus-20240229 | 200K | $15 / $75 | 最高到達点、ニュアンスの極致を追求 |
Accelerated
prompt_caching.exe
高度な機能:プロンプトキャッシュ (Prompt Caching)
同じ巨大な PDF に対して繰り返し質問を行うようなタスクにおいて、OpenClaw は Anthropic のプロンプトキャッシュを自動的に有効化します。これにより、API コストを最大 90% 削減し、同一コンテキスト内での後続クエリの遅延を 50% 短縮します。
Cost Savings
-90%
Latency Reduction
-50%
config.yaml
⚙️ config.yaml 設定ガイド
# hybrid_routing_engine v1.1
"ai": {
"provider": "anthropic",
"api_key": "sk-ant-YOUR_KEY_HERE",
"model": "claude-3-5-sonnet-20241022",
"max_tokens": 8192
}
💡// 💡 高度なヒント:Sonnet では 'max_tokens' を 8192 に設定し、拡張出力ウィンドウを有効化してください。
troubleshooting.log
よくある API エラーと解決策
429: Rate Limit Exceeded
$ ティア制限に達しました。Tier 2+ へのアップグレードを検討するか、リクエストに遅延を設けてください。
401: Invalid API Key
$ config.yaml に余計な空白がないか、sk-ant- プレフィックスが正しいか確認してください。
Overloaded Error (529)
$ Anthropic のサーバーが現在混雑しています。高信頼性が求められるフローでは、ローカルの Llama-3-70B へのフォールバックを構成してください。
/ 🚀 連携エコシステム
❓ FAQ
Q1. 対応Claudeモデルは?
Claude 3.5 Sonnet、Claude 3 Opus、Claude 3 Haiku、Claude 3.5 Haiku。
Q2. ローカルモデルと混在可能?
可能。複雑な推論はClaude、簡単なタスクはローカル。モデルルーティングで自動切替。