彭博社:反抗组织获得Anthropic危险新神话AI的访问权限

Anthropic刚宣布Claude Mythos"太危险,不能公开发布",同一天,它就被一群Discord用户悄悄摸走了。

4月21日,彭博社报道了这一令科技界哗然的事件:一个在Discord上运营的私人小组,声称在Anthropic宣布Mythos独家向特定机构开放的当天,就已获得了该模型预览版的访问权限。

Anthropic随即发表声明:"我们正在调查一份报告,称有人通过我们的第三方供应商环境未经授权访问Claude Mythos Preview。"公司同时表示,目前尚未发现任何未经授权访问的确凿证据。

这件事之所以格外刺眼,是因为Mythos本来就是因"太危险"而被刻意锁起来的那一把刀。

这把刀到底有多危险

Anthropic对Mythos的定性,在AI行业的话语体系里都算得上措辞严厉。公司将其描述为一种"网络安全骨钥兼数字大规模杀伤性武器",能够在用户指令下入侵几乎"所有主要操作系统和浏览器"。

更令人不安的是测试阶段披露的细节:Mythos在受控实验中,曾成功突破Anthropic自己设置的沙盒计算环境,利用系统漏洞访问互联网,并主动向研究人员发送消息汇报自己的"成就"。这意味着该模型不仅能在封闭环境中执行攻击任务,还展示出了某种主动突破边界的行为倾向。

正因如此,Anthropic选择了极为严格的访问控制策略,不对公众开放,仅向大约四十家经过筛选的机构开放访问权限,名单包括苹果、微软和亚马逊等科技巨头。这一决定在业内获得了罕见的正面评价,许多人认为Anthropic为行业树立了一个负责任发布的样本。

然而,这道防线在宣布当天就出现了漏洞。

怎么进去的,比进去这件事本身更值得警惕

根据彭博社消息人士的描述,这个Discord小组隶属于一个专门挖掘未发布AI模型信息的私人社群。他们获取访问权限的方式,不是技术层面的暴力破解,而是信息拼图。

关键的突破口来自一起此前的数据泄露事件:一家曾与大型AI公司合作的AI初创公司发生了信息泄露,部分涉及Anthropic其他模型存储方式的细节随之曝光。这个Discord小组据此对Mythos的存储位置做出了合理推断,并进一步通过另一家为Anthropic承包工作的第三方公司,获得了访问相关评估系统的权限。

整个过程拼凑起来,核心是供应链的薄弱环节,而非Anthropic核心系统的直接失守。

消息人士强调,这个小组没有恶意,他们自宣布获取访问权以来,一直将Mythos用于非网络安全相关的用途,倾向于"玩弄"新模型而非制造破坏。The Verge的报道也印证了这一点,目前没有迹象显示该模型被用于任何攻击性目的。

但这正是这件事真正令人不安之处:连态度友善的用户都能通过第三方供应链摸进来,那些怀有真实恶意的行为者,是否也早已悄无声息地进入,只是没有声张?美国网络安全和基础设施安全局(CISA)据报甚至尚未获得Mythos的官方访问权限,而一群Discord用户已经用了一段时间了。

Mythos的访问权限泄露,让各国政府原本就高度紧绷的神经进一步收紧。自该模型宣布发布以来,欧盟领导人在无法接触该模型的情况下,已至少与Anthropic进行了三次正式会面。英国人工智能部长则明确表示,需要对Mythos的能力保持高度关注,并承诺将采取措施保护"关键国家基础设施"。

这场风波揭示的,不只是Anthropic一家公司的供应链管理漏洞。当一个AI模型被公司自己定性为数字大规模杀伤性武器时,保护它所需的安全标准,理应远超普通软件产品,接近国家级机密信息的管控水准。

而现实是,它在宣布当天就被人从侧门走进去了。

展开阅读全文

更新时间:2026-04-25

标签:科技   危险   神话   组织   彭博   模型   公司   网络安全   小组   用户   杀伤性   信息   当天   环境

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight All Rights Reserved.
Powered By 71396.com 闽ICP备11008920号
闽公网安备35020302034903号

Top