
2026年3月16日,GTC大会上,黄仁勋穿着皮夹克站在舞台中央,给OpenClaw封了一个神。麦克风传出的不是音响的回声,而是一声定语式的判决:「OpenClaw是个人AI的操作系统。Mac和Windows是个人电脑的操作系统,OpenClaw是个人AI的操作系统。」
全场起立鼓掌。彼时距离OpenClaw初版发布仅四个多月,已斩获36万GitHub星,拿下全球有史以来增速最快的开源项目纪录。
然而今天,大量“养虾”用户正在经历越来越频繁的挫败感:AI该回复时不回复、重启后失忆、消耗巨量Token完成极简单的指令、因API限流消息卡在冷却循环里……
“更新完了,OpenClaw直接废了”“折腾OpenClaw最后总是把我带回Codex和Claude,试图搞清楚为啥OpenClaw又不行了”,Reddit和GitHub讨论区类似的叙事隔三差五出现,频率高到社区单独给它开了曝光帖。
越来越笨的根本原因交织着三重断裂带。 它并非模型能力退化了,而是OpenClaw的结构性陷阱正从暗处大面积发酵:

当一个项目拥有36万GitHub星、200多家科技公司围绕它构建商业产品时,它最需要的是稳定的地基。但OpenClaw的维护组只有几十名兼职开发者,他们各有自己的创业公司或本职项目,扛着火箭式增长的开源帝国。
于是崩坏的逻辑链形成了:OpenClaw过去一个月发布十几个版本,每发布一次就可能把用户精心配置的Agent直接烧坏(有时24小时内两次发布)。来自security审计团队的最新CVE展示了剧烈变动带来的脆弱性:OpenClaw在3月下旬到4月初版本中多次因内存管理失当导致高危漏洞——低版本用户面临已被公开验证的多途径DoS攻击风险。
大厂们更不敢动了—— 英伟达、字节跳动、腾讯这些深度集成OpenClaw构建自家产品模型的企业,至今卡在3月上半月的旧版本。他们明确担忧:升级可能导致严重技术故障。这个矛盾极为颠覆:黄仁勋亲自站台的“AI操作系统”,甚至老黄自己的公司都不敢用最新版。
最戏剧的引爆点出现在中国本土插件生态中。OpenClaw在一次更新中移除了原本统一的插件入口openclaw/plugin-sdk,强制插件使用新路径openclaw/plugin-sdk/core作按需加载,同时未提供任何兼容性过渡期。官方称此举锚定加速启动、减少内存占用并封堵潜在的跨包逃逸漏洞。结果运行在微信里的官方ClawBot插件启动报错“Cannot find module”——代码中指向旧统一入口的硬链接让它直接崩溃。企业微信、飞书插件同步触发连锁故障。插件社区对此看法分两派:一方批评中国大模型工具生态跟不上开源迭代节奏,另一方直言OpenClaw的API稳定性本身就不够健壮——既然API设计“不够稳定”,公认为负责任做法是先标记旧接口为“已弃用”,保留一个合理的过渡期友好迭代,再正式删除。但OpenClaw没这么做。结果社区逐步达成一句警示性共识:怕更新就别用最新版虾。
如果说密集迭代导致系统崩坏是“明伤”,那么基础设施层的一连串暗伤则是“越来越笨”的真正深水区。
最先暴露的是通信链路的脆弱性。 最早一批深度用户中,有人在跑了6周的OpenClaw后发现,三次严重故障导致服务中断超过1小时。复盘结论非常反直觉:没有一次是模型回答错误导致的,问题全部出在大模型之外的基础设施层。第一起事故发生在飞书WebSocket长连接上——第9天早上8:47到8:18之间35分钟内接收到的所有用户消息全部丢失,没有任何告警。深层原因是一个竞态条件:在8:12:03到8:12:07的7秒区间内,OpenClaw同时执行断连—重连—首次重连失败—二次重连成功—旧连接关闭事件触发—新连接被旧逻辑强行切断—重连计数器归零—不再重试,前台显示的实时连接状态却永远是绿色的。用户看到消息已发送,Agent却永远接不到。这类竞态连日志都无法主动报警。
第二个致命伤是API限流的混乱回退。 GitHub已确认的Regression Issue #43879给数百万用户额外增加了一份沮丧:OpenClaw当前版本对429(服务端限流)的回退逻辑是按Profile级别记录冷却状态,而非按Model级别。当某一模型触发429后,整个Profile下所有模型都进入冷却,即使其他模型仍有可用配额,只能坐等冷却。更让人防不胜防的是,OpenClaw对不同Provider的错误统一封装成“API rate limit reached”飞书告警,无论原因是限流、账单超限还是账号欠费,对外输出同一句话。日志层才有真实错误字符串。很多用户在“检查频率限制”方向上绕了一大圈,最后发现其实是账单到期了。
第三大痛点贯穿了大量新手与深度用户——OpenClaw自己不会长大。 现有协议下的技能依赖人工编写或从社区下载,却无法在复杂任务的应急排错中自动沉淀下来。社区里流传的一则评价很通透:它虽然是一个能“管好这帮干活的AI”的控制中枢,但没法像Hermes Agent那样“教AI怎么把活干好”。更有用户开始调侃两种典型场景:“OpenClaw把你教会它做的事执行得很好,但它不会自我迭代;而一些对手框正在把自己训练成越用越聪明的工具。”
如果说先天架构和基础设施的不稳构成“越来越笨”的内因,那来自外部的成本结构变动则在另一个维度把好端端的Agent直接打残。
4月4日,Anthropic正式宣布:Claude订阅用户不再允许通过OpenClaw等第三方工具消耗订阅额度,必须转为按API调用次数计费。社区迅速命名——“龙虾税”。背后的算数齿轮何其残酷:德国科技媒体c't评估发现在Claude Opus模型上运行OpenClaw一天消耗的Token价值高达人民币约700元以上;而官方Claude Code专业软件开发者的日均成本仅为6美元,90%团队处于12美元以下。一个独立开发者计算得更加刺痛:原来每月200美元的Claude Max订阅费,如今如果继续走API,单日就可能烧掉等额资金。NPM数据显示,OpenClaw周均下载量比3月中旬峰值暴跌了将近一半。有企业级安全公司CEO公开评价,在新计费体系下搭配Anthropic模型和OpenClaw,原本月付服务费可能变成每天付200美元。
这也是为何大量用户选择切换模型—— 为控制成本,OpenClaw官方在4月底迅速将DeepSeek-V4-Flash设置为默认大模型,V4 Pro同步上线模型库。虽然DeepSeek-V4展示的百万级上下文能力和极低的API定价显著降低了Agent使用门槛,但对已经经历过服务不定时中断和全面向API计费受冲击的重度用户来说,底层的信任坍塌很难靠替换参数修复。
“在一次复杂任务中主动出错、继而纠错、然后固化为标准技能”—— 这个自动化自我进化的闭环,OpenClaw仍未提供。
当“越用越蠢”的集体感知逐渐浮现于开发者社区时,人们开始对标Hermes Agent的去中心叙事。后者通过在技能生命周期中引入“运行时静默生成”和“离线批量进化”两段截然不同的自我改进机制,让Agent在接复杂任务时“跑通全流程→发现错→自我纠错→封装成Skill”,逐渐为人机界奠定新的智能水准。
而OpenClaw记忆和技能一直是靠人工以Markdown文件手动维护。这就导致长周期交互场景下,重启后像“失忆患者”,记不住之前讨论的项目架构,必须再次从零构建上下文。
甚至,连“收集消息+立即回复”这种基础交互设计都有雷区存在:OpenClaw消息队列默认为collect模式,一个长时间任务进行时用户中途补充的请求会被先攒起来,直到任务结束才统一触发。对话因此变得极为丝滑却失去了响应速度,消息变成「aaaa→bbbb」的批量模式——用户发了短信等十分钟没回应,接着对方一股脑连续回几条跨历史消息,哪个AI在你感知里都不可能很“聪明”。
OpenClaw“越来越笨”的社区调性,悄然验证了USC、UCR和Stanford联合发布的新评估基准EvoClaw的一个深刻洞见:AI代码一旦脱离单点修复、进入长周期持续演进的真实开发,得分从>80%骤降到最高不到40%。关键瓶颈不是模型会不会推理,而是面对代码库膨胀、需求变更、多轮交互后的复杂“技术债”时,系统毫无自我修复或长期适应能力。
从众大神到普通开发者正在回答同一个问题:我们需要一个像人类开发者那样能记住之前踩过的所有坑、自动沉淀最佳实践,并在局部规则失效时空降到备用容灾轨道的AI助手。
现在很多“退虾养马”的文化流传,恰恰验证了这句推论:养虾太贵,养马更值。一个会主动学习、自进化、自己查漏补缺的AI,才是2026年我们应该追求的数字员工。
OpenClaw到底笨不笨?答案可能更残酷:它从未变笨,而是从未“变聪明过”。
它的笨,是设计哲学上压倒控制调度而疏漏自我适应性的结构性笨;它的笨,是兼职团队在爆发式增长阶段无法保持每次更新都能平稳兼容的负担型笨;它的笨,是用户一边每月消耗几千上万块API成本、一边面临更新即崩概率35%的双重承压。
但在AI世界,最危险的状态是昨天还在神坛,今天就被自家生态边缘化——走向半被动前台的龙虾,已经在帮后来者探明一个至关重要的课题:智能体的核心竞争力,不在接入多少通道、控制多少渠道,而在能否越来越懂用户、自主修复、自动重写自己的记忆。
更新时间:2026-05-03
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight All Rights Reserved.
Powered By 61893.com 闽ICP备11008920号
闽公网安备35020302034903号