
引言:这篇是我今晚灵光一闪随手写的,没想到发到小红书后,竟收获了不少关注,有些人认同,有些人也质疑。如今,我把它重新发布在微信公众号上,内容里或许有些观点稍显激进,却也饱含着我的一份期待——希望 DeepSeek V4 能成为今年国产 AI 大模型中的亮眼“王牌”。
截至今日,距离DeepSeek-V3发布已过去445天,转眼已是一年有余。
曾经的国产大模型之光DeepSeek,如今在V4模型研发上,却接连出现跳票、增长乏力等问题。
几个事件可以印证:
1、自去年底开始,路透社及国内多家媒体接连报道,备受期待的 DeepSeek V4 模型即将发布。但最终,DeepSeek却一言不发,最终导致V4“跳票”,从春节前延期至3月、最近再传4月上线,始终未能如约而至。
最新消息显示,DeepSeek V4 多模态大模型,与姚顺雨领衔的腾讯混元新模型,或将于 4 月正式上线。
2、据SemiAnalysis和Poe平台数据,DeepSeek 平台的用户使用率已从7.5%的峰值骤降至3%,去年 2 月下旬至 5 月,其官网流量下滑29%(近三成,统计的是DeepSeek官网,不包括腾讯元宝、百度等第三方渠道);而Token调用流量从42%萎缩至16%。

根据Artificial Analysis的最新数据,截至今年3月15日,DeepSeek-V3.2 模型的性能和性价比,远低于Kimi-K2.5、 MiniMax-M2.5、智谱GLM-5等一众国产开源AI模型。

甚至在近期OpenClaw“龙虾”热潮下,月之暗面Kimi K2.5、MiniMax M2.5、阶跃星辰Step-3.5 Flash等国产模型 API 的tokens使用量,也远高于DeepSeek模型。
在App排名上,DeepSeek已下滑至苹果App Store效率榜第36位。而字节豆包、阿里千问等AI应用持续占领下载榜前列。
当然,这些第三方数据仅供参考。
但比较事实的是,在过去这一年里,DeepSeek似乎鲜有全新的重要模型推出,曾经凭借DeepSeek-R1推理模型“震撼全球”的辉煌,已成过往。
如今的 DeepSeek,在模型侧基本以 “小幅迭代更新” 为主,还发表了多份框架与技术论文;移动App则在每周“修复部分已知问题”。
很显然,DeepSeek从神坛跌落的故事,给整个行业敲响了警钟。

回望 DeepSeek 的崛起之路,其发展堪称教科书级别的行业逆袭案例。
梁文峰于1985年出生于广东省湛江市,自幼展现出卓越的数学天赋,初中时便自学完高中数学课程,并开始涉猎大学数学。从浙江大学研究生毕业后,他于2008年开始研究量化对冲,并于2015年创立幻方量化。此后该公司迅速崛起,成为中国量化私募“四巨头”之一。
2023年,梁文峰成立的深度求索DeepSeek,依托幻方量化的算力底座,避开行业“堆参数、烧算力”的误区,走出了一条“算法优先、效率为王”的差异化路线。
2025年初,DeepSeek-R1横空出世,仅以557万美元的训练成本,就实现了接近GPT-4o的性能表现,数学推理能力甚至实现反超。
同时,DeepSeek V3系列模型持续迭代,平均1-2个月一次大更新,开源权重引爆全球开发者社区,API定价低至行业十分之一,迅速抢占中小企业和开发者市场,甚至腾讯、百度等大厂和算力公司纷纷响应,适配或接入DeepSeek模型。
彼时的DeepSeek,是速度与创新的代名词,App上线数月下载量破1亿,周活逼近9700万,在代码、数学、长文本处理等垂直领域建立起绝对优势,被视为中国大模型的“希望之星”。
这一轮DeepSeek热潮,一度让“大模型六小虎”(智谱、MiniMax、百川智能、零一万物、月之暗面、阶跃星辰)陷入舆论漩涡带来的“至暗时刻”。
不过,高光时刻有多耀眼,跌落时就有多落寞。
DeepSeek V4模型的反复跳票,正在让市场和AI行业陷入等待且焦虑的时刻。
据多家媒体报道,今年春节假期,腾讯元宝和混元团队就为了等待DeepSeek的模型更新,不得不加班,错峰返乡过年。
如今,当OpenAI、智谱等大模型同行都在“月更模式”下狂奔时,DeepSeek却陷入长期静默期,曾经的“火箭迭代”彻底刹车,用户新鲜感迅速消退。
尽管今年 2 月 DeepSeek 上线了百万上下文测试版(非 V4 正式版)并开展压力测试,但情感交互、个性化记忆等模块尚未完成迁移,仍需持续调优,而众人期盼的V4正式版迟迟未出,也让一些行业人士对DeepSeek的当前发展状态并不认可。

DeepSeek为何会在短短一年内陷入如此困境?
表面来看,是 V4 模型跳票、业务增长不及预期,深层原因则是技术、算力、生态、战略四重矛盾的交织。
首当其冲的是算力“卡脖子”的致命瓶颈。
有分析认为,DeepSeek可稳定调用的高端芯片规模,不足OpenAI的十分之一。
有限的算力资源,既要保障核心模型预训练,又要支撑日常推理服务,根本无法满足万亿参数级别模型的大规模调优与迭代。
算法创新能弥补部分算力差距,却无法突破硬件的绝对天花板,国产算力能力弱、海外GPU短缺等问题,从根源上锁死了模型性能与迭代速度。
此外,技术路线的战略摇摆与难度陡增,生态与商业化的先天短板等问题,可能都是DeepSeek“掉队”的重要原因。
当然,我们也能感知到,作为开源明星,DeepSeek的任何平庸“迭代”都会被视为“走下神坛”,口碑反噬风险高。同时,DeepSeek还需要平衡开源免费与商业化,发布决策更谨慎。
DeepSeek从神坛跌落的速度,比崛起时更令人猝不及防。这场从“夯”到“拉”的急速反转,不仅是一家企业的发展之路,更折射出全球大模型竞争的残酷本质,以及国产AI算力突围的深层困境。
但我相信,梁文锋和DeepSeek的故事尚未结束。
唯有顺利推出 V4 模型,突破发展瓶颈、坚守技术初心,才能在全球 AI 竞争中站稳脚跟,真正让国产AI技术实现从“技术逆袭”到“产业引领”的跨越。
基于DeepSeek的模型迭代和论文判断,最新V4依然会是模型效率、性价比高的路线,无论是使用国产AI算力,还是GPU计算,都将全面提升AI Infra和算力效率。
而我们也期待,经历低谷的DeepSeek,能重新找回崛起时的锋芒,用实力打破质疑,重回属于自己的巅峰。
智能纪元也将持续第一时间关注 DeepSeek 后续的最新发展进展。
更新时间:2026-03-17
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight All Rights Reserved.
Powered By 71396.com 闽ICP备11008920号
闽公网安备35020302034903号