$cd ../integrations/
🤖 AI ModelsCloudv1.4+
$ cat openai.md

OpenAI GPT-4o & o1 高度な連携ガイド

/** OpenAI の最先端モデルとローカルインフラをシームレスに橋渡し。セキュアな OpenAI 互換プロキシを通じて GPT-4o や o1 推論モデルにアクセスします。 */

bridge_intelligence.log

究極の知能への架け橋

OpenClaw は、OpenAI エコシステム全体へのネイティブかつ低遅延なブリッジを提供します。私たちは「ローカル優先」の AI を推奨していますが、GPT-4o を統合することで、最先端のビジョン機能、構造化された JSON 出力、そして新しい o1 シリーズの推論モデルを自動化ワークフローに取り入れることが可能になります。この統合は「エンタープライズ・プロキシ」として機能し、生の API コールに監査、コスト追跡、およびフェイルオーバーロジックを追加します。

model_spectrum.md

📊 OpenClaw 経由で利用可能な最先端モデル

Model NameCtx WindowCost / 1M tokUse Case Profile
gpt-4o128K$2.5 / $10ビジョンと自動化の万能王 ⭐
gpt-4o-mini128K$0.15 / $0.6超高速なパイプライン処理
o1-preview128K$15 / $60複雑な科学的・論理的推論
realtime_bridge.exe

ネイティブサポート: OpenAI Realtime API

OpenClaw を OpenAI の WebSocket エンドポイントに接続し、超低遅延の音声対音声やマルチモーダルなインタラクションを実現。HTTP のオーバーヘッドなしで 500ms 以内の応答が求められる AI エージェントの構築に最適です。

WebSocket StreamConnected
config.yaml

⚙️ config.yaml 設定ガイド

# OpenClaw OpenAI Proxy Config
ai:
provider: "openai"
api_key: "sk-YOUR_OPENAI_KEY_HERE"
model: "gpt-4o"
context_window: 128000

💡# 💡 高度なヒント: 'openai-compatible' プロバイダーを使用して、LM Studio などのローカル vLLM サーバーをブリッジできます。

incident_response.log

OpenAI API インシデントログ

クォータ不足 (429)
Solution: 課金ダッシュボードを確認してください。o1 へのアクセスには「使用量ベース」の支払いが有効である必要があります。
モデルが見つからない
Solution: API キーが Tier 1 以上の権限を持っているか確認してください。o1 などの最新モデルはプリペイドアカウントの状態が必要です。
コンテキスト長の上限超過
Solution: OpenClaw 設定の「コンテキストのトリミング」を有効にし、128K の制限に達する前に履歴を自動要約するようにします。

❓ FAQ

Q1. 対応モデルは?

全APIモデル:GPT-4o、GPT-4 Turbo、GPT-3.5 Turbo、DALL-E。

Q2. ローカルモデルと混在可能?

可能。モデルルーティングで複雑なタスクはGPT-4o、簡単なタスクはローカルモデル。
← 連携一覧に戻る