$cd ../integrations/
🤖 AI ModelsCloudv1.4+
$ cat openai.md
OpenAI GPT-4o & o1 高度な連携ガイド
/** OpenAI の最先端モデルとローカルインフラをシームレスに橋渡し。セキュアな OpenAI 互換プロキシを通じて GPT-4o や o1 推論モデルにアクセスします。 */
bridge_intelligence.log
究極の知能への架け橋
OpenClaw は、OpenAI エコシステム全体へのネイティブかつ低遅延なブリッジを提供します。私たちは「ローカル優先」の AI を推奨していますが、GPT-4o を統合することで、最先端のビジョン機能、構造化された JSON 出力、そして新しい o1 シリーズの推論モデルを自動化ワークフローに取り入れることが可能になります。この統合は「エンタープライズ・プロキシ」として機能し、生の API コールに監査、コスト追跡、およびフェイルオーバーロジックを追加します。
model_spectrum.md
📊 OpenClaw 経由で利用可能な最先端モデル
| Model Name | Ctx Window | Cost / 1M tok | Use Case Profile |
|---|---|---|---|
| gpt-4o | 128K | $2.5 / $10 | ビジョンと自動化の万能王 ⭐ |
| gpt-4o-mini | 128K | $0.15 / $0.6 | 超高速なパイプライン処理 |
| o1-preview | 128K | $15 / $60 | 複雑な科学的・論理的推論 |
realtime_bridge.exe
ネイティブサポート: OpenAI Realtime API
OpenClaw を OpenAI の WebSocket エンドポイントに接続し、超低遅延の音声対音声やマルチモーダルなインタラクションを実現。HTTP のオーバーヘッドなしで 500ms 以内の応答が求められる AI エージェントの構築に最適です。
WebSocket StreamConnected
config.yaml
⚙️ config.yaml 設定ガイド
# OpenClaw OpenAI Proxy Config
ai:
provider: "openai"
api_key: "sk-YOUR_OPENAI_KEY_HERE"
model: "gpt-4o"
context_window: 128000
💡# 💡 高度なヒント: 'openai-compatible' プロバイダーを使用して、LM Studio などのローカル vLLM サーバーをブリッジできます。
incident_response.log
OpenAI API インシデントログ
クォータ不足 (429)
Solution: 課金ダッシュボードを確認してください。o1 へのアクセスには「使用量ベース」の支払いが有効である必要があります。
モデルが見つからない
Solution: API キーが Tier 1 以上の権限を持っているか確認してください。o1 などの最新モデルはプリペイドアカウントの状態が必要です。
コンテキスト長の上限超過
Solution: OpenClaw 設定の「コンテキストのトリミング」を有効にし、128K の制限に達する前に履歴を自動要約するようにします。
:: 🚀 拡張連携
❓ FAQ
Q1. 対応モデルは?
全APIモデル:GPT-4o、GPT-4 Turbo、GPT-3.5 Turbo、DALL-E。
Q2. ローカルモデルと混在可能?
可能。モデルルーティングで複雑なタスクはGPT-4o、簡単なタスクはローカルモデル。