从1亿+到29.4万!DeepSeek让AI告别烧钱时代

最近AI圈出了个大新闻,中国的DeepSeek把自家R1模型的论文发上了《自然》,这事儿本身就够炸的,更让人惊掉下巴的是,这模型训练推理能力才花了29.4万美元。

我刚看到这数的时候还以为眼花了,反复确认好几遍才敢相信,要知道以前想搞个能上顶刊的AI模型,没个几亿根本拿不下来。

29.4万美元的“炸弹”:戳破AI圈的烧钱迷思

DeepSeek这波操作,直接给整个行业来了个“降维打击”,今年年初R1刚亮相时,大家都觉得这模型性能强、还开源,成本肯定低不了,就是没人知道具体数。

直到最近论文一公开,512块H800芯片,80小时,29.4万美元搞定推理训练,基础模型也才600万美元。

路透社、CNN这些美媒都看懵了,CNBC直接说这钱干了超级大厂才敢碰的活,戳破了“没顶尖GPU玩不了AI”的说法。

本来想觉得就是DeepSeek运气好,后来发现跟同行一对比才知道多厉害,2023年OpenAI的奥尔特曼说他们基础模型训练成本远超1亿美元,这差距可不是一点半点。

以前AI圈总觉得“烧钱越多越牛”,不少团队一门心思凑GPU,好像没堆够数量就没底气。

DeepSeek这事儿算给大家提了个醒,不是钱花得少就做不出好东西,关键是怎么把钱花在刀刃上。搞不清那些还在盲目砸钱的团队,看到这数会不会重新算算账。

从R1-Zero到R1:AI自己“悟”出解题门道

光成本低还不够,能做到性能不打折,背后的技术才是真门道。

R1能有现在的本事,全靠它的前身R1-Zero打基础,这R1-Zero跟别的AI不一样,不用人教套路,就靠纯强化学习自己练,答对加分,答错扣分,连思考步骤都不规定。

在2024年AIME数学测试里,它的准确率从15.6%一路涨到77.9%,开了自洽解码后直接飙到86.7%,比不少人类选手还厉害。

更有意思的是,训练的时候它还会主动延长思考链,有时候输出上万个token,突然冒一句“等一下,我需要验证”。

如此看来,这AI都快有“反思能力”了,而且全程没人指导,这哪是训练模型,简直是看AI“开窍”。

不过R1-Zero也有缺点,语言混用、读着费劲,没法直接用。

无奈之下,团队搞了多轮精炼,先用好数据修语言问题,再强化学习提推理能力,接着扩知识面,最后对齐人类偏好。

很显然,这套流程没走一点弯路,既保住了R1的深度推理能力,还让它能跟人顺畅聊天,数学、编程这些硬活也没落下。

透明化+开源:给AI行业立了新规矩

DeepSeek最让人佩服的,不只是成本和技术,还有它的透明。

之前有美国官员质疑,说用H800这种“阉割版”芯片练不出高性能模型,还造谣他们违规弄了H100。

结果DeepSeek在《自然》的补充文件里直接明说,R1全程用的都是合法买的H800,一点没含糊。

而且他们不光回应质疑,还把训练细节、强化学习策略、数据来源全公开了,谁都能复现。

以前AI圈不少公司都把模型当“黑箱”,藏着掖着怕别人学去,DeepSeek这波操作,相当于把“家底”亮出来,反而让大家更信任。

更关键的是,R1还开源到了HuggingFace,下载量破了1090万次,成了首个经同行评审的主流大语言模型。

《自然》都夸这事儿有价值,让大模型从公司私藏变成了能科学验证的系统,毫无疑问,这给行业指了条新路子:AI竞争不是比谁GPU多、烧钱狠,而是比谁策略巧、够透明。

现在再看AI圈,DeepSeek这一课算是教透了,以前大家总觉得搞AI得靠“钞能力”,中小团队根本没机会。

现在好了,有了低成本、可复现的路子,更多人能扎进来做研究。如此看来,AI不再是少数大厂的“烧钱游戏”,这才是行业该有的样子。

展开阅读全文

更新时间:2025-09-30

标签:科技   时代   模型   能力   团队   行业   门道   成本   自然   语言   迷思   下载量

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020- All Rights Reserved. Powered By 71396.com 闽ICP备11008920号
闽公网安备35020302034903号

Top