
为什么 OpenClaw 这种“实干派” AI 让我兴奋?
最近 GitHub 上有个项目火得一塌糊涂,短短一个月拿了 10 万星。它叫 OpenClaw(原名 Clawdbot)。
如果你还在习惯性地把 AI 当作一个更聪明的搜索引擎或者代码生成器,那 OpenClaw 可能会打破你的认知。外媒形容它是“长了手的 Claude”(Claude with hands),我觉得这个比喻非常精准——它不再满足于在对话框里给你吐字,而是真的要把手伸进你的操作系统里“干活”了。
作为开发者,扒完它的架构后,我看到了一种不同于现在的 API 调用的新范式。
AI 即使“断网”也是个好管家
现在的 AI 产品大多有个通病:云端太强,本地太弱。我们习惯了把数据传给 ChatGPT/Gemini,让它处理完再发回来。但 OpenClaw 走了一条反直觉的路:Local First(本地优先)。
它的核心不是一个巨大的云端大脑,而是一个跑在你电脑上的守护进程(Gateway)。这个设计太聪明了:
- 它不是转发器,它是指挥官:它把云端的大模型(比如 Claude)当作“智囊”,但把执行权留在了本地。
- 打通任督二脉:你的 WhatsApp、Telegram、Slack 甚至终端命令行,都只是它的“输入输出接口”。
这就意味着,你可以在手机上的 Telegram 发一条指令,家里的电脑就开始跑脚本、发邮件、整理文件。这种“数据不离身,能力跨平台”的感觉,才是我们心目中那个 Jarvis 的雏形。
当 AI 学会了“死磕”
Moltbot 最打动我的一点是它的 Agent(代理)逻辑。
以前我们用 AI,如果它做不到,它会说:“抱歉,我无法访问该网站。” OpenClaw 的逻辑是:执行 -> 失败 -> 换个方法 -> 再执行。
一个很经典的 Case:OpenClaw本来想调 API 订餐厅,发现没接口,居然自己调用了语音合成软件,直接给餐厅打了个电话把位置订了。这种基于反馈的动态决策能力,才是 Agent 和 Chatbot 的分水岭。它不是在“模拟”工作,它是在“完成”工作。
对开发者极度友好的“白盒”记忆
对于技术人员来说,最讨厌的就是黑盒。很多 AI 所谓的“记忆”都是存在云端的向量数据库里,你看不到也改不了。
OpenClaw 在工程实现上非常务实(甚至有点复古):
- 记忆就是 Markdown:它的长期记忆、用户偏好,甚至性格设定,都是一个个
.md文件。 - 技能就是配置文件:想扩展它的能力?写个
SKILL.md就行。
这种“透明化”的设计深得我心。作为开发者,我们可以直接用文本编辑器去“修剪”AI 的记忆,或者像写代码一样去定义它的技能边界。这种可控感,是目前封闭生态的 AI 产品给不了的。
风险与机遇并存
当然,把 Shell 权限交给 AI 是件挺恐怖的事。
这就好比给了一个实习生(AI)你电脑的 root 权限。虽然它能帮你全自动干活,但如果它“幻觉”了一下,或者被黑客入侵了,后果可能就是 rm -rf 级别的灾难。而且,明文存储的记忆文件也是把双刃剑,方便了你,也方便了攻击者。
写在最后
OpenClaw 也许还不是终极答案,它的部署门槛和安全隐患都很明显。但它代表的风向标是确定的:
AI 的下一站,一定是“去中心化”和“执行力”。
我们不再需要另一个能写十四行诗的聊天机器人了,我们需要的是一个能帮我们回邮件、整理代码、自动运维,甚至在半夜服务器报警时能自己爬起来处理故障的“数字同事”。