
马斯克
Anthropic指责对手窃取模型能力 马斯克反击训练数据旧案
埃隆·马斯克在X平台上的最新表态,让人工智能领域的注意力再次聚焦于数据使用规范。Anthropic公司日前发布博客,将自己定位为受害方,详细披露了针对其Claude模型的系统性攻击行动。短短几小时后,马斯克的回复就将讨论转向了更深层的行业问题。
Anthropic在博客中指出,DeepSeek、Moonshot AI和MiniMax等实验室开展了涉及超过2.4万个虚假账户和1600多万次交互的行动。这些操作主要锁定Claude在代理式推理、工具调用、复杂编码以及计算机视觉等领域的核心能力。攻击方借助商业代理服务混淆流量,并在新模型发布后迅速调整策略,例如其中一家实验室在新版本上线24小时内将近一半流量转向新目标。

图:Anthropic Claude模型界面示例
马斯克分享相关社区笔记,称Anthropic曾因大规模使用未经授权训练数据而支付巨额和解费用。他特别提到涉及数百万本书籍和音乐作品的案例,并形容这种立场存在明显的不一致性。这一表态迅速在行业内引发连锁反应。

图:xAI Grok聊天界面,代表马斯克旗下AI产品的实际交互示例
在AI工程实践中,模型蒸馏是一种通过反复查询大型模型输出、提炼知识到新模型的技术。本质上,它能让后进入者以较低成本获得类似能力。但当这种方法被用于未经许可的系统性提取时,就触及了知识产权边界。目前,Anthropic等公司已开发出账户行为分析和流量模式识别等防御手段,以保护多年研发投入。

图:AI训练核心硬件示意图,凸显数据处理与模型优化对算力的依赖
近年来,OpenAI、Google等主要玩家也多次卷入训练数据相关的法律纠纷,这已成为AI前沿模型开发的共同挑战。Anthropic最新一轮融资后估值达到3800亿美元,主要得益于亚马逊等机构的持续支持。与此同时,xAI通过前期6亿美元融资以及近期公司结构调整,正加快Grok在编码和代理功能上的迭代步伐。数据来源的透明度,正与算力资源一同成为决定市场地位的关键因素。

图:大规模AI数据中心内部,反映出训练前沿模型所需的硬件基础设施
当前,代理功能和长上下文处理能力成为Claude与Grok等模型的主要竞争点。行业内针对蒸馏防御的研发正在加速,包括更精细的率限制和输出水印技术。市场观察显示,注重数据合规的企业在长期合作中更易获得信任,而技术壁垒的缩小也促使各家加快迭代节奏。
这场公开讨论再次提醒人们,人工智能的快速发展离不开清晰的规则框架。数据使用规范的完善,将直接影响未来行业创新的可持续性与竞争公平性。
更新时间:2026-03-02
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight All Rights Reserved.
Powered By 61893.com 闽ICP备11008920号
闽公网安备35020302034903号