$cd ../integrations/
🤖 AI ModelsRecommendedv1.0+100% local · free forever
$ cat ollama-integration.md
openclaw.useModel('ollama', { local: true })
/** OpenClaw + Ollama:究極のローカルAIスタック。データが機器から出ることはありません。 */
// なぜOllamaがデフォルトの推奨なのか
🔒
100%プライベートとデータ主権
// APIコールなし、トークントラッキングなし、データが機器から出ない。機密ログや個人文書の処理に最適です。
💸
完全無料
// 100以上のオープンモデルを完全無料でダウンロード。レート制限なし、サブスクリプションなし、予期せぬ請求なし。
⚡
低レイテンシ推論
// Mac Mシリーズ:20-45 tok/s。Telegram/WhatsAppでのリアルタイムチャットや自動化ワークフローに十分な速度。
hardware_requirements.md
💻 最小ハードウェア要件
>
8GB RAM / VRAM
3B - 7Bモデル (llama3.2:3b, qwen2.5:7b)を実行。基本的なチャットに最適。
>
16GB RAM / VRAM
8B - 14Bモデル (llama3.1:8b, gemma3:9b)を実行。汎用的な使用に最適なスイートスポット。
>
32GB+ RAM / VRAM
32B+モデル (qwen2.5:32b)を実行。複雑なコーディングや推論タスクに適しています。
step_01_install_ollama.sh
ステップ1:Ollamaのインストールとモデルのプル
# macOS
$ brew install ollama
# Linux (one-liner)
$ curl -fsSL https://ollama.ai/install.sh | sh
# Windows: download installer from ollama.ai
# Pull your first model (recommended for OpenClaw)
$ ollama pull llama3.1:8b
# pulling manifest... done ✓ 4.7 GB
$ ollama serve # starts on http://localhost:11434
model_comparison.md
📊 OpenClaw推奨モデルマトリックス
// Mac Mini M4 (16GB UM) および Hetzner CPX21 (Ubuntu)でテスト済み
| Model | Size | Speed | Best For |
|---|---|---|---|
| llama3.2:3b | 2.0 GB | ~45 tok/s | Fast replies, chat |
| llama3.1:8b← recommended | 4.7 GB | ~28 tok/s | General purpose ⭐ |
| llama3.1:70b | 40.0 GB | ~8 tok/s | Complex reasoning |
| gemma3:9b | 5.4 GB | ~25 tok/s | Code + structured output |
| mistral:7b | 4.1 GB | ~30 tok/s | EU data sovereignty |
| qwen2.5:14b | 8.9 GB | ~18 tok/s | Best for Chinese text |
step_02_config.yaml
ステップ2:OpenClawをOllamaに接続する
# openclaw/config.yaml
ai:
provider: "ollama"
base_url: "http://localhost:11434"
model: "llama3.1:8b"
context_window: 8192
$ openclaw start
# ✓ Connected to Ollama at localhost:11434
# ✓ Model: llama3.1:8b (loaded, 4.7GB)
# ✓ OpenClaw ready.
performance_tips.md
⚡ 高度なパフォーマンスチューニング
OllamaモデルをRAMに常駐させる
$ OLLAMA_KEEP_ALIVE=24h ollama serve
// リクエスト間でモデルがメモリからアンロードされるのを防ぎ、5-10秒のコールドスタート遅延を排除します。
GPUレイヤー数を増やす(NVIDIA/AMD)
$ OLLAMA_GPU_LAYERS=33 ollama serve
// より多くのTransformerレイヤーをGPUに強制的にオフロードし、推論速度を大幅に向上させます。
マルチユーザー向け並列リクエスト
$ OLLAMA_NUM_PARALLEL=4 ollama serve
// 4つの同時生成を許可します。OpenClawボットをグループチャットで利用する場合に不可欠です。
troubleshoot.log
🔧 よくある問題と解決策
Q: エラー: Connection refused (localhost:11434)
A: Ollamaが実行されていません。`ollama serve`で起動するか、バックグラウンドサービスがアクティブであることを確認してください。
Q: OpenClawの返信が非常に遅い
A: モデルがCPUのスワップメモリに溢れている可能性があります。より小さな量子化モデルを選択するか、システムRAM/VRAMを増やしてください。
🚀 次のステップ
❓ FAQ
Q1. 最適なモデルは?
Llama 3(8B)汎用、Mistral 7B速度重視、CodeLlama開発用。16GB RAMで実行可能。
Q2. 必要なRAMは?
7Bモデル最低8GB、13B推奨16GB、70Bは32GB+。GPU任意。