最近AI圈出了个大新闻,中国的DeepSeek把自家R1模型的论文发上了《自然》,这事儿本身就够炸的,更让人惊掉下巴的是,这模型训练推理能力才花了29.4万美元。
我刚看到这数的时候还以为眼花了,反复确认好几遍才敢相信,要知道以前想搞个能上顶刊的AI模型,没个几亿根本拿不下来。
DeepSeek这波操作,直接给整个行业来了个“降维打击”,今年年初R1刚亮相时,大家都觉得这模型性能强、还开源,成本肯定低不了,就是没人知道具体数。
直到最近论文一公开,512块H800芯片,80小时,29.4万美元搞定推理训练,基础模型也才600万美元。
路透社、CNN这些美媒都看懵了,CNBC直接说这钱干了超级大厂才敢碰的活,戳破了“没顶尖GPU玩不了AI”的说法。
本来想觉得就是DeepSeek运气好,后来发现跟同行一对比才知道多厉害,2023年OpenAI的奥尔特曼说他们基础模型训练成本远超1亿美元,这差距可不是一点半点。
以前AI圈总觉得“烧钱越多越牛”,不少团队一门心思凑GPU,好像没堆够数量就没底气。
DeepSeek这事儿算给大家提了个醒,不是钱花得少就做不出好东西,关键是怎么把钱花在刀刃上。搞不清那些还在盲目砸钱的团队,看到这数会不会重新算算账。
光成本低还不够,能做到性能不打折,背后的技术才是真门道。
R1能有现在的本事,全靠它的前身R1-Zero打基础,这R1-Zero跟别的AI不一样,不用人教套路,就靠纯强化学习自己练,答对加分,答错扣分,连思考步骤都不规定。
在2024年AIME数学测试里,它的准确率从15.6%一路涨到77.9%,开了自洽解码后直接飙到86.7%,比不少人类选手还厉害。
更有意思的是,训练的时候它还会主动延长思考链,有时候输出上万个token,突然冒一句“等一下,我需要验证”。
如此看来,这AI都快有“反思能力”了,而且全程没人指导,这哪是训练模型,简直是看AI“开窍”。
不过R1-Zero也有缺点,语言混用、读着费劲,没法直接用。
无奈之下,团队搞了多轮精炼,先用好数据修语言问题,再强化学习提推理能力,接着扩知识面,最后对齐人类偏好。
很显然,这套流程没走一点弯路,既保住了R1的深度推理能力,还让它能跟人顺畅聊天,数学、编程这些硬活也没落下。
DeepSeek最让人佩服的,不只是成本和技术,还有它的透明。
之前有美国官员质疑,说用H800这种“阉割版”芯片练不出高性能模型,还造谣他们违规弄了H100。
结果DeepSeek在《自然》的补充文件里直接明说,R1全程用的都是合法买的H800,一点没含糊。
而且他们不光回应质疑,还把训练细节、强化学习策略、数据来源全公开了,谁都能复现。
以前AI圈不少公司都把模型当“黑箱”,藏着掖着怕别人学去,DeepSeek这波操作,相当于把“家底”亮出来,反而让大家更信任。
更关键的是,R1还开源到了HuggingFace,下载量破了1090万次,成了首个经同行评审的主流大语言模型。
《自然》都夸这事儿有价值,让大模型从公司私藏变成了能科学验证的系统,毫无疑问,这给行业指了条新路子:AI竞争不是比谁GPU多、烧钱狠,而是比谁策略巧、够透明。
现在再看AI圈,DeepSeek这一课算是教透了,以前大家总觉得搞AI得靠“钞能力”,中小团队根本没机会。
现在好了,有了低成本、可复现的路子,更多人能扎进来做研究。如此看来,AI不再是少数大厂的“烧钱游戏”,这才是行业该有的样子。
更新时间:2025-09-30
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-=date("Y",time());?> All Rights Reserved. Powered By 71396.com 闽ICP备11008920号
闽公网安备35020302034903号