$cd ../integrations/
Integration20 min read
VS Code / Cursor 集成
将强大的本地 OpenClaw 编排引擎直接引入您的编码环境。获得完整的工作区上下文、自主文件编辑能力以及终端执行权限——零延迟,零云端 API 依赖。
why_ide.md
为什么要将 OpenClaw 集成到 IDE 中?
虽然在单独的 Web UI 中与 OpenClaw 聊天对于常规任务很有帮助,但不断切换窗口会彻底破坏开发者的心流。通过将本地的 OpenClaw 实例直接接入 VS Code 或 Cursor,大模型(LLM)将瞬间获得对您工作区的深度访问权限。它可以读取所有打开的标签页、扫描项目目录树、在集成终端中执行测试代码,并在编辑器中直接提供您可以一键采纳的内联代码 diff。这就把 AI 从一个被动的聊天机器人,变成了一位主动的结对编程同事。
install_bridge.sh
方法一:使用官方 OpenClaw Bridge(推荐)
想要获得最无缝的原生体验,首选 VS Code 插件市场提供的官方 OpenClaw Bridge 扩展。该插件全面兼容 VS Code 和 VSCodium。
- 1.打开 VS Code 并进入“扩展”视图 (快捷键 Ctrl+Shift+X 或 Cmd+Shift+X)。
- 2.在插件市场中搜索 'OpenClaw Bridge'。
- 3.点击“安装”。插件将自动探测 localhost:11434 端口上运行的 OpenClaw 守护进程。
- 4.点击活动栏(侧边栏)上的螃蟹图标,打开聊天面板即可开始编码。
configure_cline.yaml
方法二:使用 Cline / RooCode 等第三方插件(基于 OpenAI 代理机制)
如果您已经习惯了使用 Cline、RooCode 或 Continue.dev 等目前流行的 Agent 插件,您依然可以非常轻松地将它们接入您的 OpenClaw 实例。这得益于 OpenClaw 内建的完美兼容 OpenAI 规范的 API 代理网关。
- API Provider:
选择 'OpenAI Compatible' 或 'Custom' - Base URL:
http://127.0.0.1:11434/v1 (这是本地 OpenClaw 路由器的默认端口) - Model Name:
填写 openclaw-coordinator (或直接映射您本地跑的大模型,比如 qwen2.5-coder:32b) - API Key:
填 openclaw-local-dev (在本地运行环境下,该认证步骤默认是被忽略的)
filesystem_mcp.json
通过 File System MCP 提供深度上下文
要赋予编码智能体真正的自主性,它必须能够稳定地读写文件。请确保在您的 ~/.openclaw/config.yaml 中启用了 FileSystem Model Context Protocol (MCP) 服务器,并将其映射到了您的代码工作区:
{
"mcpServers": {
"filesystem": {
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-filesystem", "/path/to/workspace"]
}
}
}
best_practices.md
## 最佳实践与性能调优
- ★必须使用 .openclawignore 文件:这对于性能至关重要。如果不加限制,智能体很容易在读取 node_modules、.git 或编译输出的 build/ 目录时“迷路”,并在几秒钟内耗尽上下文窗口。:
- ★固定核心上下文(Pin Contexts):在启动大型的跨文件重构任务前,一定要明确告诉智能体哪 3-4 个文件是相关的。这样可以避免它退回到既宽泛又缓慢的全局 RAG 检索。:
- ★授权终端访问:允许扩展运行命令行指令。这样,智能体在把代码交回给你审核之前,就能自动运行 `npm run build` 或 `pytest` 自行验证代码是否能跑通。:
- ★打磨 System Prompts:在扩展的设置选项中自定义系统提示词,以强制遵循你们项目的特定编码规范(例如:'始终使用 React 函数式组件并要求严格的 TypeScript 类型推断')。:
troubleshooting.log
排查连接与配置故障
ERROR: ECONNREFUSED 127.0.0.1:11434
$ OpenClaw 守护进程根本没启动。请打开终端并运行 `openclaw start` 唤醒它。
ERROR: Model XYZ not found
$ 您在插件配置里填了一个本地还未拉取的模型名字。请在终端执行 `openclaw pull <模型名>`。
ERROR: Agent 每次都重写一整个文件
$ 请确保您使用的插件(如 Cline)原生支持 based-diff(基于差异)的编辑模式,并且您本地运行的模型也是专门针对代码微调过的(例如 Llama 3.1 8B Instruct 版本)。
❓ FAQ
Q1. 免费吗?
免费开源。你提供自己的 LLM。
Q2. 能离线工作吗?
能。用本地 Ollama 模型无需联网。