$cd ../integrations/
🤖 AI ModelsRecommendedv1.0+100% local · free forever
$ cat ollama-integration.md

openclaw.useModel('ollama', { local: true })

/** OpenClaw + Ollama:究極のローカルAIスタック。データが機器から出ることはありません。 */

// なぜOllamaがデフォルトの推奨なのか
🔒
100%プライベートとデータ主権
// APIコールなし、トークントラッキングなし、データが機器から出ない。機密ログや個人文書の処理に最適です。
💸
完全無料
// 100以上のオープンモデルを完全無料でダウンロード。レート制限なし、サブスクリプションなし、予期せぬ請求なし。
低レイテンシ推論
// Mac Mシリーズ:20-45 tok/s。Telegram/WhatsAppでのリアルタイムチャットや自動化ワークフローに十分な速度。
hardware_requirements.md

💻 最小ハードウェア要件

>
8GB RAM / VRAM
3B - 7Bモデル (llama3.2:3b, qwen2.5:7b)を実行。基本的なチャットに最適。
>
16GB RAM / VRAM
8B - 14Bモデル (llama3.1:8b, gemma3:9b)を実行。汎用的な使用に最適なスイートスポット。
>
32GB+ RAM / VRAM
32B+モデル (qwen2.5:32b)を実行。複雑なコーディングや推論タスクに適しています。
step_01_install_ollama.sh

ステップ1:Ollamaのインストールとモデルのプル

# macOS
$ brew install ollama
# Linux (one-liner)
$ curl -fsSL https://ollama.ai/install.sh | sh
# Windows: download installer from ollama.ai
# Pull your first model (recommended for OpenClaw)
$ ollama pull llama3.1:8b
# pulling manifest... done ✓ 4.7 GB
$ ollama serve # starts on http://localhost:11434
model_comparison.md

📊 OpenClaw推奨モデルマトリックス

// Mac Mini M4 (16GB UM) および Hetzner CPX21 (Ubuntu)でテスト済み

ModelSizeSpeedBest For
llama3.2:3b2.0 GB~45 tok/sFast replies, chat
llama3.1:8b← recommended4.7 GB~28 tok/sGeneral purpose ⭐
llama3.1:70b40.0 GB~8 tok/sComplex reasoning
gemma3:9b5.4 GB~25 tok/sCode + structured output
mistral:7b4.1 GB~30 tok/sEU data sovereignty
qwen2.5:14b8.9 GB~18 tok/sBest for Chinese text
step_02_config.yaml

ステップ2:OpenClawをOllamaに接続する

# openclaw/config.yaml
ai:
provider: "ollama"
base_url: "http://localhost:11434"
model: "llama3.1:8b"
context_window: 8192
$ openclaw start
# ✓ Connected to Ollama at localhost:11434
# ✓ Model: llama3.1:8b (loaded, 4.7GB)
# ✓ OpenClaw ready.
performance_tips.md

⚡ 高度なパフォーマンスチューニング

OllamaモデルをRAMに常駐させる
$ OLLAMA_KEEP_ALIVE=24h ollama serve
// リクエスト間でモデルがメモリからアンロードされるのを防ぎ、5-10秒のコールドスタート遅延を排除します。
GPUレイヤー数を増やす(NVIDIA/AMD)
$ OLLAMA_GPU_LAYERS=33 ollama serve
// より多くのTransformerレイヤーをGPUに強制的にオフロードし、推論速度を大幅に向上させます。
マルチユーザー向け並列リクエスト
$ OLLAMA_NUM_PARALLEL=4 ollama serve
// 4つの同時生成を許可します。OpenClawボットをグループチャットで利用する場合に不可欠です。
troubleshoot.log

🔧 よくある問題と解決策

Q: エラー: Connection refused (localhost:11434)
A: Ollamaが実行されていません。`ollama serve`で起動するか、バックグラウンドサービスがアクティブであることを確認してください。
Q: OpenClawの返信が非常に遅い
A: モデルがCPUのスワップメモリに溢れている可能性があります。より小さな量子化モデルを選択するか、システムRAM/VRAMを増やしてください。

❓ FAQ

Q1. 最適なモデルは?

Llama 3(8B)汎用、Mistral 7B速度重視、CodeLlama開発用。16GB RAMで実行可能。

Q2. 必要なRAMは?

7Bモデル最低8GB、13B推奨16GB、70Bは32GB+。GPU任意。
← 連携に戻る