NVLink技术如何构建AI超级大脑?黄仁勋深度解析
* 来源 : * 作者 : admin * 发表时间 : 2025-07-24
NVIDIA通过NVLink总线连接多组GPU,实现算力扩展与内存池共享,为大规模AI模型训练提供底层支持。数据中心性能扩展通常分为纵向扩展(Scale Up)和横向扩展(Scale Out):前者提升单一单元性能(如升级生产线),后者串联多个单元(如扩建厂房)。但Scale Up受限于芯片开发瓶颈与物理条件,Scale Out则面临数据同步损耗与空间占用问题。
NVIDIA的NVLink技术平衡了二者优势。2024年发布的GB200 NVL72系统通过第五代NVLink互联8组GB200 Superchip节点,形成“超级GPU”,内含36颗Grace CPU和72颗B200 GPU。若搭配NVLink Switch交换机,最高可将576颗B200 GPU组成完全互联架构,实现类似Scale Up的性能扩展。Grace CPU通过NVLink连接主内存与GPU显存,带宽达2 TB/s,显著提升AI性能。
此外,NVLink解决了AI运算中的内存瓶颈。单一GPU内存容量受限于成本、散热与性能匹配效率,例如NVIDIA GB200 Superchip最大搭载480 GB LPDDR5X和384 GB HBM3e,而AMD Instinct MI350系列为288 GB HBM3e。对于参数量庞大的模型,必须通过NVLink互联扩展内存池。
NVIDIA还通过收购Mellanox的InfiniBand技术,串联由NVLink组成的计算节点,实现超大规模AI基础设施。2025年COMPUTEX上发布的NVLink Fusion技术,允许合作伙伴基于NVLink打造半定制AI芯片,与NVIDIA GPU整合形成高性能AI工厂。黄仁勋强调,NVLink通过打破PCIe总线的带宽与延迟限制,使多GPU协作效率大幅提升,加速大语言模型训练与推理。
从2014年NVLink 1.0(80 GB/s)到2025年第五代(1.2 TB/s),NVIDIA持续刷新算力上限。NVLink Fusion的开放生态将进一步推动AI基础设施的灵活部署。正如黄仁勋所言:“AI正在融入每个计算平台,而NVLink正是这场变革的核心纽带。”
NVIDIA的NVLink技术平衡了二者优势。2024年发布的GB200 NVL72系统通过第五代NVLink互联8组GB200 Superchip节点,形成“超级GPU”,内含36颗Grace CPU和72颗B200 GPU。若搭配NVLink Switch交换机,最高可将576颗B200 GPU组成完全互联架构,实现类似Scale Up的性能扩展。Grace CPU通过NVLink连接主内存与GPU显存,带宽达2 TB/s,显著提升AI性能。
此外,NVLink解决了AI运算中的内存瓶颈。单一GPU内存容量受限于成本、散热与性能匹配效率,例如NVIDIA GB200 Superchip最大搭载480 GB LPDDR5X和384 GB HBM3e,而AMD Instinct MI350系列为288 GB HBM3e。对于参数量庞大的模型,必须通过NVLink互联扩展内存池。
NVIDIA还通过收购Mellanox的InfiniBand技术,串联由NVLink组成的计算节点,实现超大规模AI基础设施。2025年COMPUTEX上发布的NVLink Fusion技术,允许合作伙伴基于NVLink打造半定制AI芯片,与NVIDIA GPU整合形成高性能AI工厂。黄仁勋强调,NVLink通过打破PCIe总线的带宽与延迟限制,使多GPU协作效率大幅提升,加速大语言模型训练与推理。
从2014年NVLink 1.0(80 GB/s)到2025年第五代(1.2 TB/s),NVIDIA持续刷新算力上限。NVLink Fusion的开放生态将进一步推动AI基础设施的灵活部署。正如黄仁勋所言:“AI正在融入每个计算平台,而NVLink正是这场变革的核心纽带。”






关闭返回