
在人工智能领域,中国初创公司 DeepSeek 绝对是众人瞩目的焦点。这要归功于其两个新的强大人工智能模型:V3 和 R1。分别于12月和1月发布,两者的性能均达到甚至超过了竞争对手聊天机器人的表现,其中包括美国 OpenAI 的 ChatGPT 或 Meta 的 Llama 等主导厂商。然而,V3 和 R1 所消耗的成本和计算能力只是竞争对手的一小部分。
通过这一突破,DeepSeek 实现了曾经被硅谷认为不可能的壮举。由于中国受到芯片制裁,公司更难获得先进芯片,只能使用功能较弱的 H800。
面对这一限制,他们在模型架构和训练方法上进行了大量创新,而这些创新的核心目标只有一个——减少甚至最小化训练现代模型所需的计算资源。

他们成功做到了这一点。这也正是为什么有人说,制裁实际上适得其反,反而倒逼中国企业不断创新、寻找出路,用更少的资源训练出先进模型。
中国的一些科技高管将 DeepSeek 视为北京赢得与华盛顿人工智能竞争的关键。但也有行业分析师表示,现在下结论还为时过早。
原因之一在于,DeepSeek 的 R1 和 V3 模型是开源的。开源意味着公众可以访问软件程序的源代码,允许第三方开发者修改、分享其设计,修复问题或扩展其功能。
美国的 AI 开发者也确实在努力研究 DeepSeek 的成果并从中学习,尝试改进自身模型的性能、延迟和效率。但反过来,DeepSeek 也在持续学习——向 OpenAI 学习,向 Anthropic 学习,向 Meta 学习。这是一场双向的追赶。
每隔几个月甚至几周,就会有非常强大的新模型进入市场,而它的成就往往在发布后不久就被竞争对手超越。这是一场激烈的竞赛,各方相互竞争,创新速度极快。

与此同时,DeepSeek 的低成本模型也引发了市场对半导体巨头英伟达大额投资的质疑。英伟达的图形处理单元(GPU)被视为设计最前沿人工智能模型不可或缺的组件,每颗芯片价值数万美元,而台积电(TSMC)则是英伟达的主要芯片制造商。
DeepSeek 最新模型发布后,英伟达股价下跌了17%,美国上市的台积电股价也下跌了13%。市场的担忧在于:如果真的可以用如此低的成本训练模型,为何还要在芯片制造商身上投入巨资?
但对于一些科技分析师来说,英伟达的命运可能取决于所谓的"缩放定律"。在人工智能领域,缩放定律衡量的是模型性能与其参数之间的关系——数据集越大、硬件越先进,模型的表现预计就越好。
科技巨头一直在最先进的芯片上投入巨资,尤其是英伟达的 H100,以维持性能上的优势。如果缩放定律持续有效,人们就会继续购买更多英伟达 GPU,台积电也将继续为英伟达制造这些芯片。

考虑到未来对计算的需求,人工智能的采用和模型开发将会更加广泛,这意味着市场还需要更多的计算资源。但市场也有所恐慌——如果计算规模的缩放定律无法持续,将从根本上影响整个人工智能产业供应链。
股价暴跌后,黄仁勋的焦虑已经藏不住了。他在播客中警告:若DeepSeek级别的模型首发绑定华为昇腾芯片,美国将失去AI话语权。他真正担忧的是生态迁移的不可逆性——英伟达花二十年构建的CUDA生态是其最深的护城河,而华为正在对面建一座新城。
DeepSeek的开源策略是关键催化剂,一旦模型在昇腾上完成深度优化,全球开发者会用计算器投票。中东、东南亚等地区有需求无包袱,便宜好用就选谁。
美国芯片禁令短期有效,却触发了两个不可逆进程:中国练就了低算力条件下做强模型的能力,华为昇腾生态被禁令加速催熟。黄仁勋看清了终局,但种下这颗种子的,恰恰是他喊话的那些人
更新时间:2026-04-21
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight All Rights Reserved.
Powered By 61893.com 闽ICP备11008920号
闽公网安备35020302034903号