DeepSeek将发布新版,美国OpenAI陷入技术焦虑,转而启动政治打压

【本文仅在今日头条发布,谢绝转载】

本文作者——迟惑|《太空探索》杂志专业撰稿人


进入2026年初,中国多家AI企业密集发布新一代大模型,整体性能已经逼近甚至对标美国最新一线产品。按照业内通行的评估体系,这些模型在多项基准测试中达到所谓的SOTA(即当前最优水平),表现相当亮眼。

当然,说“全面超越美国”并不客观,中美之间仍存在差距。但一个更值得关注的变化是,中国开源大模型正在走出一条不同路径:用不到美国主流模型约10%的成本,做到接近甚至超过90%的性能表现。

这种“低成本+高性能”的组合,正在迅速改变大模型的应用门槛,也在客观上削弱美国在AI领域长期建立的技术与生态优势。

(OpenAI公司将Deepseek视为敌人)

Deepseek团队在2025年春节期间发布的DeepseekR1被誉为中国的“国运级”产品,直接引发美国AI概念股暴跌,因此包括OpenAI在内的美国企业,都在紧张地盯着Deepseek团队的动作,DeepSeek创始人梁文锋在内部沟通中透露,其新一代旗舰大模型DeepSeek-V4的发布时间定于‌2026年4月下旬。

(OpenAI还不是最敌视中国的美国AI企业,Anthropic才是,遭到马斯克的痛批)

在这种背景下,让人意想不到的是,OpenAI公司向美国众议院的“美中战略竞争特别委员会”提交了一份备忘录,指责DeepSeek“正在使用不公平且日益复杂的手段,从美国领先的人工智能模型中提取结果,用于训练其突破性的下一代产品”。他们称Deepseek正使用所谓的“蒸馏”技术,让更老、更成熟、更强大的人工智能模型评估新模型得出的答案的质量,有效地转移旧模型的学习成果,还“通过混淆的第三方路由器和其他掩盖其来源的方式来规避OpenAI的访问限制”。

(字节跳动发布的视频创作AI工具Seedance2.0已经碾压全球同类产品)

从现有信息看,OpenAI近期的表态,更像是在推动通过政策与监管手段,对包括DeepSeek在内的中国开源大模型形成外部压力。这种做法本身就带有明显的竞争色彩,其相关指控也存在较大争议。

首先,从技术路径上看,OpenAI当前最先进的大模型仍是闭源体系,核心代码与训练数据均部署在其云端环境中。通过公开接口获取完整模型结构或原始训练数据,在现实中并不可行,这一点在业内基本没有分歧。

其次,关于“蒸馏”的说法,在DeepSeekR1发布初期确实被广泛提及,但随着DeepSeek团队陆续公开技术论文,对模型结构与训练方法进行系统性说明,这一质疑已逐渐降温。相关研究也经过同行评估与复现,至少在技术层面,简单以“蒸馏”概括其路径,已显得过于粗糙。

再次,从规则层面看,有分析指出,OpenAI的用户协议通常将生成内容的使用权授予用户。在这一前提下,即便存在基于模型输出进行再训练的行为,其权利归属与主张基础,也并非完全清晰,仍有较大讨论空间。

综合来看,这一争议的核心,并不只是技术问题,更涉及模型开放路径、商业模式以及监管环境的博弈。

(刚刚发布的豆包大模型2.0跑分也直追美国最先进的大模型)

事实上,由于中国企业发布的AI大模型基本都是开源的,而且大部分遵循着非常宽松的MIT开源协议,允许用户随意使用这些大模型的代码和数据构建自己的商业产品,美国也有大量企业在使用中国AI大模型。比如美国Meta公司的“牛油果”项目被曝选择蒸馏阿里千问模型Qwen,已经用行动承认了中国在开源领域的领先地位;美国旅游服务平台Airbnb公司的CEO公开表示其客服AI大量依赖Qwen,认为其比OpenAI产品更好更便宜;而被OpenAI收购的美国AI初创企业Windsurf,其最新模型被发现是基于智谱GLM-4.6定制开发的;硅谷知名投资人查马斯公开表示已开始使用月之暗面的Kimi-K2替代OpenAI和Anthropic的模型。

阿里千问大模型是去年世界上下载次数最多的开源大模型,Deepseek、GLM、Kimi等产品紧随其后,中国的开源AI大模型凭借着极高的性价比和开放生态,已成为全球开发者(包括美国)的首选,甚至被整合进美国AI开发的基础设施中。OpenAI的指控更多是商业护城河保卫战,当DeepSeek能以极低成本实现相近性能时,美国公司依赖高投入构建的技术壁垒就受到了威胁。

(2026年2月中国AI企业集中发布新产品,美国企业也被迫跟风)

那么,美国政府可能对Deepseek做些什么呢?实际上没什么好办法。也许他们会宣布“封杀”Deepseek,但你如何能封杀一个开源软件?如果不让Deepseek在美国的开源代码托管平台上发布,那完全可以在中国和其他国家的开源代码托管平台上发布,甚至可以在自己公司的网站上发布,世界各地的用户仍然能够随意下载。封是封不住的。

在过去一段时间,Deepseek已经通过发布论文公开了未来产品的几项核心技术,包括Engram记忆模块技术,通过哈希表分离“静态知识存储”与“动态计算推理”将固定知识卸载至低成本内存中,GPU专注逻辑任务,显著降低长上下文推理成本,延迟控制在3%以内;mHC训练框架,结合FP8数据格式,导致内存占用减半,速度翻倍。近日Deepseek还在自己的APP中已开启大规模灰度测试,实测支持100万Token超长上下文,知识库更新至2025年5月。就让我们期待Deepseek的重磅新产品上市吧。OpenAI的那些小动作,不过就是螳臂当车,完全无法阻止中国AI大模型的进步。

#头条精选-薪火计划#

展开阅读全文

更新时间:2026-04-21

标签:科技   美国   焦虑   新版   政治   技术   模型   中国   产品   企业   公司   路径   代码   阿里

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight All Rights Reserved.
Powered By 61893.com 闽ICP备11008920号
闽公网安备35020302034903号

Top