想象一个住在你家服务器上的助手:你通过 WhatsApp / Telegram 给它发条消息,它就能帮你发邮件、控制浏览器、执行 Shell 命令、管理文件——全部自动完成,不需要你打开任何 App,也不需要把你的数据传给任何云端公司。更精确地说:OpenClaw = 本地运行的 AI 代理平台,以聊天 App 为唯一交互界面,以大语言模型为大脑,以 Skills(插件)为双手。
| 时间 | 事件 |
| 2025-11 | 以 “Clawd” 发布,用于个人 WhatsApp 中继 |
| 2026-01-27 | Anthropic 商标投诉 → 紧急更名为 “Moltbot” |
| 2026-01-30 | 因名字拗口再次更名为 “OpenClaw”,GitHub Stars 突破 14 万 |
| 2026-02-02 | GitHub Stars 达 20 万,2 百万访客/周,成为 GitHub 历史增速最快的开源项目之一 |
| 2026-02-14 | Steinberger 宣布加入 OpenAI,项目移交开源基金会 |
| 矛盾对 | OpenClaw 的取舍 | 代价 |
| 能力 vs. 安全 | 优先能力(Shell 执行、浏览器控制、文件读写全部开放) | 攻击面极大,不适合安全意识薄弱的用户 |
| 数据自主 vs. 易用性 | 优先数据本地化(Memory 存 Markdown 文件,不上云) | 配置复杂,需要一定 DevOps 能力 |
| 扩展性 vs. 供应链安全 | 优先扩展性(低门槛 Skills 生态,3000+ 插件) | ClawHub 中约 10.8% 的 Skills 被检测为恶意 ⚠️ 存疑(来源:NSFOCUS 2026.02 安全分析报告) |
| 术语 | 费曼式定义 | 正式定义 |
| Gateway | 项目的"总调度室",所有消息进来都要经过它 | 基于 WebSocket 的控制平面进程,监听 ws://127.0.0.1:18789,负责消息路由、客户端管理和事件分发 |
| Channel | 你和 AI 对话用的"入口",如 WhatsApp、Telegram | 与外部消息平台的适配器层,每个 Channel 实现统一的消息收发接口 |
| Skill | AI 能做的一件具体的事,比如"发邮件"、“截图” | 以 SKILL.md 为核心文件的插件单元,包含 YAML frontmatter(元数据)和自然语言指令(执行逻辑描述) |
| ClawHub | 类似 npm 的 Skills 商店,可一键安装别人写好的技能 | 官方 Skills 分发平台,托管 3000+ 开源 Skills,支持 CLI 一键安装 |
| Heartbeat | 让 AI 可以"主动联系你"而不只是"被动回复" | 定时调度器,以可配置间隔唤醒 Agent,触发无需用户输入的自主任务 |
| Node | AI 的"感官",让它能看到摄像头、屏幕 | 运行在具体设备(macOS/iOS/Android)上的客户端程序,提供设备级能力 |
| Memory | AI 记住你说过什么的方式 | 以 Markdown 文件形式存储于本地磁盘的上下文持久化机制 |
| 维度 | OpenClaw | AutoGPT | Claude Code | n8n |
| 开源协议 | MIT | MIT | 闭源(CLI Apache 2.0) | Apache 2.0 |
| 部署方式 | 本地/VPS | 本地/云 | 本地 | 本地/云 |
| 交互入口 | 聊天 App(WhatsApp 等) | Web UI / CLI | 终端 | Web UI |
| 数据存储位置 | 本地 Markdown 文件 | 本地 + 可选云 | 本地 | 本地/数据库 |
| 自主调度 | ✅ Heartbeat 定时唤醒 | 部分支持 | ❌ | ✅ Cron |
| Skills/插件生态 | 3000+(ClawHub) | 有限 | MCP Server | 400+ 节点 |
| 模型无关性 | ✅(Claude/GPT/DeepSeek/本地模型) | ✅ | ❌(Claude 专属) | ✅ |
| 安全成熟度 | ⚠️ 低(早期快速迭代) | 中 | 高 | 中 |
| GitHub Stars(2026.02) | 200,000+ | ~165,000 | N/A | 45,000+ |
| 学习成本 | 中(需 CLI 经验) | 低 | 低 | 低 |
| 组件 | 语言/技术 | 核心数据结构 | 为什么选择它 |
| Gateway 进程 | Node.js | WebSocket 事件队列 | 事件驱动模型天然适合消息路由;Node.js 生态对 WS 支持成熟 |
| Channel Adapter | TypeScript | 标准化 Message 接口 | 抽象不同平台的 API 差异,上层无需关心具体平台 |
| Memory 层 | Markdown 文件系统 | YAML frontmatter + 正文 | 人类可读可编辑;无需额外数据库依赖;天然支持 Git 版本控制 |
| Skills | SKILL.md 文件 | YAML + 自然语言 | 与 Claude Code / Cursor 的 SKILL.md 约定兼容,降低迁移成本 |
| Heartbeat Scheduler | Node.js setInterval / cron | 任务队列 | 轻量,足以满足分钟级精度的定时需求 |
| 故障类型 | 应对策略 |
| Gateway 进程崩溃 | systemd 自动重启;Memory 文件持久化,不丢失历史 |
| LLM API 超时/限速 | 内置 Model Failover(可配置备用模型列表) |
| 单 Channel 服务故障 | 其他 Channel 独立运行,不互相影响 |
| Skills 执行失败 | LLM 可感知失败并向用户报告;不内置自动重试机制 ⚠️ 存疑 |
| 指标类型 | 具体指标 | 正常阈值 |
| API 消耗 | 每日 Token 消耗量 | 依据 LLM 提供商的 spending limit 设置;建议设置硬上限 |
| 消息延迟 | 从用户发送到 AI 回复的端到端延迟 | 本地网络下 2–8 秒(含 LLM API 调用时间)⚠️ 存疑,依模型不同差异较大 |
| Gateway 健康 | WebSocket 连接数、消息队列积压 | 正常情况下队列积压应为 0 |
| Skill 执行成功率 | 成功执行 / 总调用次数 | 无官方基准,建议自行通过日志统计 |
| 配置项 | 默认值 | 风险 | 推荐值 |
| gateway.auth | 无鉴权 | 任何能访问端口的人可控制 Agent | 必须设置 token |
| channels.*.allowed_users | 无白名单 | 任何人可给你的 Agent 发指令 | 必须设置 |
| heartbeat.interval_minutes | ⚠️ 存疑 | 过短会产生大量 API 费用 | ≥15 分钟 |
| 优先级 | 调优方向 | 目标 | 验证方法 |
| P0 | 选择合适的 LLM 模型 | 响应时间 <5s | 对比不同模型的 P50/P95 延迟 |
| P1 | 定期归档 Memory 文件 | Memory 文件 <10MB | du -sh ~/.openclaw/memory/ |
| P2 | 增大 Heartbeat 间隔 | 降低 API 费用 ≥30% | 对比调整前后月账单 |
| P3 | 启用 Model Failover | 可用性 ≥99% | 监控 API 错误率 |
| 参数 | 默认值 | 推荐值 | 调整风险 |
| llm.model | 取决于向导选择 | claude-sonnet-4-6(性价比最优) | 切换模型可能改变 Skill 执行行为 |
| memory.max_context_tokens | ⚠️ 存疑 | 50,000–100,000 | 过大增加 API 费用;过小丢失历史上下文 |
| heartbeat.interval_minutes | ⚠️ 存疑 | ≥15 | 过小导致 API 费用激增 |
| gateway.port | 18789 | 保持默认 | 改变端口需同步更新所有客户端配置 |
| 欢迎光临 AI创想 (https://llms-ai.com/) | Powered by Discuz! X3.4 |