
哈喽,大家好,老庐今天聊个颠覆AI圈的大事:4天前的凌晨,DeepSeek突然开源“Engram”架构模块,给AI装上了“专属记忆管家”。
这波操作直接打乱了OpenAI、微软、谷歌的布局,毕竟全球科技巨头早已在AI记忆能力赛道杀得火热。
一边是巨头争抢外部知识库的存量博弈,一边是初创公司的架构革新突袭,这场暗战到底谁能笑到最后?企业级AI的核心竞争力,真的要变天了?


AI的价值早已不止“能说会道”,而是“记准用快”,在企业办公场景,能否精准调用内部文档、邮件等核心数据,直接决定AI的商业价值,巨头们的打法各有侧重,竞争已进入白热化。
2025年10月,OpenAI紧急推出“公司知识”功能,支持商业版、企业版用户连接Slack、GoogleDrive等内部数据,明摆着对标微软365Copilot。
有意思的是,微软旗下的OneDrive并未纳入支持列表,这种“盟友互防”的细节,恰恰说明办公场景的争夺有多激烈。

而微软则反制到底,将Copilot深度嵌入Office全家桶,让AI直接访问企业邮件和文档,用生态捆绑巩固优势。
谷歌的策略更显“抱团”,通过巨额投资绑定Anthropic,让Claude深度整合进GoogleWorkspace。

用户只需一句指令,Claude就能自动抓取Gmail、云端硬盘的相关内容,生成带来源标注的摘要报告,精准击中高效办公痛点。
本质上,大家争的都是同一个目标:掌控企业知识数据入口,抢占AI时代的核心话语权。


巨头们的激烈争夺,其实是在弥补传统方案的不足:当前行业主流的RAG技术,虽能平衡模型通用性与专业性,却藏着绕不开的死穴。
百度、阿里云、云问科技等都推出了相关解决方案,但企业落地时却频频碰壁。
首先是构建维护成本极高,企业要把散落在各处的合同、手册等非结构化文档,转换成可检索的向量数据库,工程量堪比“愚公移山”。

其次是系统延迟问题,每次回答都要额外检索,实时咨询、客服等场景根本扛不住。
最致命的是幻觉问题,检索到矛盾信息时,AI无法辨真伪,很可能给出错误答案,老庐了解到,不少企业吐槽RAG更新一条数据要重新处理上千份文档,运维成本高到难以承受。


DeepSeek的Engram模块,走出了一条完全不同的路:不做“外挂知识库”,而是把查找式记忆架构直接嵌入模型底层。
核心逻辑很简单:给AI配一本“智能字典”,固定常识直接查,复杂推理专心算,分工明确效率拉满。
其原理是将文本切片后,通过多头哈希函数映射到静态记忆表,实现常数时间检索,哪怕记忆表扩至百亿参数,速度也不下降,这种条件记忆机制,能解放模型深层算力,让AI专注复杂推理。

但老庐也要客观说,Engram并非完美,其一,记忆表训练难度大,需确保自动学习的是有用知识而非噪声。
其二,更新成本高,记忆表训练后固化,补充新知识需重新训练,远不如RAG灵活。
其三,垂直领域覆盖不足,通用语料训练的记忆表,难适配医学、法律等专有术语,此外,训练数据中的偏见和错误会被固化,且难以修正。

不过,Engram的出现已打破竞争格局,浙商证券预测,它将成为DeepSeek下一代旗舰模型的核心,而幻方量化2025年的强劲业绩,也为其提供了潜在资金支持。
老庐认为,未来AI记忆战场,大概率是“内置架构+外挂知识库”的混合模式,这场竞赛远未结束,技术革新终将推动企业效率升级。你觉得Engram能颠覆现有格局吗?欢迎在评论区留下看法。

大模型外部记忆革命:从RAG到Engram,知识库建设的艰难长征
更新时间:2026-01-19
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight All Rights Reserved.
Powered By 71396.com 闽ICP备11008920号
闽公网安备35020302034903号