英伟达这几年很火。因为AI的带动,它几乎成为全球最受关注的公司。
我们总是会在网上看到和英伟达有关的一些名词,例如:
A100、B100、H100、GH200、GB200、NVLINK、NVSwitch、DGX、HGX、Quantum、Spectrum、BlueField、CUDA等等。
这些名词看多了,就有点晕。搞不懂到底是什么,有什么关系。
今天这篇文章,小枣君就给大家详细梳理一下这些名词概念,顺便普及一下相关的知识。
█ 算力芯片——V100/A100/H100/B200等
这些名词,应该是大家最常见的。
没错,这些都是AI算力卡,也就是GPU卡的型号。
GPU卡(6块)
英伟达的GPU,每隔几年就会出一个新的架构。每个架构,都会以一个著名科学家的名字命名,如下所示:
所以,基于某个架构的卡,一般就会以这个架构名称的首字母开头(游戏显卡除外)。
例如,基于Volta(伏特)架构的V100,基于Ampere(安培)架构的A100,基于Hopper(赫伯)架构的H100、H200,基于Blackwell(布莱克威尔)架构的B100、B200等。
某200一般是某100的升级版。例如H200,就是H100的升级版(采用了HBM3e内存等升级)。
L40和L40s名字稍微有点特别,两者基于Ada Lovelace(世界上第一个女程序员的名字)架构,后者是前者的升级版。两个卡都是针对数据中心市场推出的,主打低成本和性价比。
还有1个型号大家应该比较熟悉——H20。
这是英伟达因为美国出口限制而推出的阉割版(特供版)。据说B200也会有对应的阉割版B20。
英伟达的下一代AI平台是Rubin(罗宾),计划于2026年推出。大家一开始以为下一代GPU就是R100、R200。但英伟达给出的路线图,又说是X100。所以,还有待观望。
2028年,英伟达会推出下下一代平台——Feynman(费曼)。
█ 超级芯片——GH200、GB200等
GPU是英伟达的算力核心硬件单元。但他们并不是只有GPU。围绕GPU,他们还有很多的产品和解决方案。
英伟达早期的时候是和IBM POWER CPU合作,后来,可能是感觉IBM不给力,于是自己开始研发CPU。例如,基于ARM架构研发的Grace CPU(Vera CPU在路上)。
英伟达采用NVLink技术,将GPU和CPU进行配对,就变成了所谓的超级芯片平台(Superchip)。
例如GH200、GB200,以及不久前新发布的GB300(Blackwell Ultra)。
由一个Grace CPU和两个Blackwell B200 GPU组成的平台,就是GB200(取Grace和Blackwell的首字母),据说性能是H100的7倍。
GB200
类似的,GH200,就是Grace CPU和Hopper GPU的组合搭配。
█ 超级计算机平台——DGX/EGX/IGX等
再往上一个层级,就是计算机了。其实刚才GB200,已经是个计算机了。
基于刚才的各种芯片平台,英伟达构建了对应的计算机平台,或者说,叫做超级计算机平台,包括DGX、EGX、IGX、HGX、MGX等。
具体的区别如下,我就不多解释了,看下表:
DGX还是见得比较多。当年黄仁勋送给OpenAI的,就是第一代的DGX-1。
现在的DGX,基本上都是土豪金配色,价格也很昂贵。
面向桌面市场,英伟达还推出了DGX Spark和DGX Station,相当于工作站。
DGX Spark和DGX Station
█ 节点内部连接:Scale Up(超节点)——DGX GB200 NVL72等
接下来,要涉及到通信方面的技术了。
之前小枣君给大家介绍超节点的时候(最近很火的“超节点”,到底是干啥的?),提到过NVLINK。
NVLINK是英伟达推出的GPU卡间互连技术,主要是取代PCIe。刚才也提到,CPU和GPU之间,也是NVLINK技术。
NVLINK多节点,就不好直连了,要引入交换芯片。于是,就有了NVLink Switch,也叫NVSwitch。后来,芯片又变成了设备。
NVLINK可以把很多的GPU连起来,组成看似很多计算机,但实际上属于一个逻辑节点(超节点)的平台。
近年来,我们经常听说DGX GB200 NVL72。
DGX GB200 NVL72,采用了NVLINK5,包含了18个GB200 Compute Tray(计算托架),以及9个NVLink-network Switch Tray(网络交换托架)。如下图所示:
NVL72机柜
每个Compute Tray包括2颗GB200超级芯片。所以,就是36个Grace CPU(18×2),72个B200 GPU(18×2×2)。
8个DGX GB200 NVL72,又可以组成一个576个GPU的SuperPod超节点。
█ 节点外部互连:Scale Out(IB和以太网)
单节点内,不断加GPU,是Scale Up(纵向扩展)。单节点到了一定规模,就不好再增加了。就要增加节点数量,搞节点与节点之间的互连,那就是Scale Out(横向扩展)。
Scale Out,英伟达也有解决方案,那就是InfiniBand(IB)技术。
InfiniBand以前是Mellanox公司的。英伟达布局深远,2019年把Mellanox收购了,InfiniBand就成了英伟达的私有技术。
InfiniBand是技术名词,不是产品名词。英伟达基于InfiniBand推出的产品平台是NVIDIA Quantum(“量子”的意思)。
例如,2024年3月,英伟达发布的Quantum-X800网络交换机平台,端到端吞吐量能够达到800Gbps。平台包括了含Quantum Q3400交换机、ConnectX-8 SuperNIC网卡等硬件。
这些硬件,也都是有系列的。Quantum-X800的上一代,是Quantum-2。ConnectX-8的前代,有ConnectX-6、ConnectX-7等。
ConnectX高速网卡也是来自Mellanox。
Scale Out的两大解决方案,除了InfiniBand,还有以太网。英伟达以太网这边也没放过,也有产品,就是Spectrum-X800。(Spectrum是“光谱”的意思。)
Spectrum-X800包括了Spectrum SN5600交换机、BlueField-3 SuperNIC网卡等硬件产品,吞吐量同样高达800Gbps。
BlueField是这些年很火的DPU。英伟达将Mellanox的ConnectX网卡技术与自己的已有技术相结合,于2020年正式推出了BlueField-2 DPU和BlueField-2X DPU。现在演进到了BlueField-3。
对了,前段时间,英伟达还发布了CPO光电一体化封装网络交换机Spectrum-X Photonics和Quantum-X Photonics。
英伟达还有一些其它的网卡、连接器、线缆等配件,就不逐个介绍了。
黄教主前段时间透露,新一代的Rubin平台发布时,据说会带来NVLink 6、ConnectX-9 SuperNIC和Quantum(Spectrum)-X1600。可以期待一下。
█ 开发框架——CUDA
刚才介绍的,是英伟达的算力硬件平台家族,以及通信网络家族。
再看一个软件方面的名词——大名鼎鼎的CUDA。
英伟达的硬件和网络做得很牛,但实际上,最被视为核心竞争壁垒的,反而是这个CUDA。
CUDA(Compute Unified Device Architecture,计算统一设备架构),是英伟达在2006年推出的并行计算平台和编程模型。它让开发者能够直接在GPU上编写代码,从而大幅提升计算速度。
如今,CUDA就像是智算开发的操作系统,集编程模型、编译器、API、库和工具于一体,有利于用户更好地发挥英伟达硬件的能力。
CUDA不仅是个工具,更形成了强大的AI开发生态。它是英伟达整个业务体系的神经中枢。
现在很多AI开发都依赖于英伟达的硬件和CUDA,换硬件其实也不是很难,但是,生态迁移更加痛苦。
好啦,关于英伟达的主要产品体系和命名规则,就介绍到这里。
在不同的领域,英伟达会基于这些核心产品,构建不同的解决方案。有的时候,也会衍生出一些升级版或阉割版,大家注意一下就行。
这个公司在AI领域牢牢占据核心地位,希望能有更多的企业,站出来向它发出挑战。
更新时间:2025-05-16
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-=date("Y",time());?> All Rights Reserved. Powered By 71396.com 闽ICP备11008920号
闽公网安备35020302034903号