超微扩展NVIDIA Blackwell系统产品线,助力AI基础设施升级
* 来源 : * 作者 : admin * 发表时间 : 2025-08-18
在全球数字化转型加速的背景下,超微(Supermicro)作为领先的IT解决方案供应商,宣布扩展其基于NVIDIA Blackwell架构的产品组合,推出全新的4U DLC-2液冷式NVIDIA HGX B200系统,并引入气冷式8U前置输入/输出(I/O)系统。这些新产品专为满足最严苛的大规模AI训练和云端推理需求而设计,旨在简化气冷或液冷AI基础设施的部署、管理和维护。
超微的新系统不仅支持即将推出的NVIDIA HGX B300平台,还通过优化前置I/O设计,简化布线,提高散热效率与计算密度,降低运营成本(OPEX)。超微行政总裁暨主席梁见后表示:“我们的DLC-2 NVIDIA HGX B200系统引领了我们的产品组合,帮助AI工厂实现更高效的能源利用并加快上线时间。凭借我们的Building Block架构,我们能够迅速响应客户需求,提供定制化解决方案。”
新一代直接液冷解决方案DLC-2,专为满足AI优化数据中心不断升级的需求而设计,可显著提升高密度计算环境中的运行效率与成本效益。例如,该系统能节省高达40%的数据中心电力消耗,使用进水温度高达45°C的温水冷却技术,减少耗水量,并通过液冷CPU、GPU、DIMM、PCIe交换器等组件,最高可捕获98%的系统热量,在低至50分贝的噪音水平下操作。
此外,超微提供了多样化的NVIDIA HGX B200解决方案组合,包括两套新的前置I/O系统和六套后置I/O系统,使客户可以根据具体需求选择最优配置。全新4U与8U前置I/O NVIDIA HGX B200系统基于大规模AI训练与推理部署的成功经验,解决了网络、布线和散热部署中的主要难题。
英伟达GPU产品管理副主席Kaustubh Sanghani指出:“先进的基础设施正在推动各行业的AI工业革命。基于最新的NVIDIA Blackwell架构,超微的新一代前置I/O B200系统使企业能够以前所未有的速度部署和扩展AI,带来突破性创新,赋能企业实现更高效率和卓越运营。”
现代AI数据中心要求高度可扩展性,这需要大量节点对节点的连接。新系统的8个高效能400G NVIDIA ConnectX-7网络接口控制器(NIC)和2个NVIDIA Bluefield-3数据处理单元(DPU)被移至系统前端,以便从冷通道配置网络线、光驱插槽托架和管理。NVIDIA Quantum-2 InfiniBand与Spectrum-X以太网平台均获得全面支持,确保计算架构性能保持最高水准。
超微还针对AI数据中心工作负载进行了元件微调,最大化效率和性能,大幅削减成本。配备32个DIMM插槽的升级内存扩展功能,使系统内存配置更加灵活,实现大容量内存。大型系统内存有助于NVIDIA HGX B200的HBM3e GPU内存消除CPU与GPU瓶颈,优化大量工作负载处理,提升虚拟化环境中的多工作效率,并加速数据预处理。
所有超微的4U液冷系统和8U或10U气冷系统均已针对NVIDIA HGX B200 8-GPU进行优化,每个GPU通过第五代NVLink以1.8TB/s的速度连接,每个系统总计可提供1.4TB的HBM3e GPU内存。与上一代Hopper GPU相比,NVIDIA的Blackwell平台为大型语言模型(LLM)提供高达15倍的实时推理性能和3倍的训练速度。
全新推出的4U前置I/O液冷系统具有前置可达的NIC、DPU、存储空间和管理组件,采用双插槽Intel Xeon 6700系列处理器,效能核心(P-core)的最大功耗可达350W,并采用NVIDIA HGX B200 8-GPU配置(每个GPU为180GB HBM3e)。系统支持32个DIMM,容量高达8TB,速度达5200MT/s,或最高可达4TB的DDR5寄存器主存模块(RDIMM),加上8个热插拔E1.S NVMe存储槽和2个M.2 NVMe启动磁盘驱动器。
8U前置I/O气冷系统则共享相同的前置可达架构和核心规格,同时为没有液冷基础设施的AI工厂提供简化解决方案。此气冷系统采用紧凑的8U外形尺寸(相较于超微的10U系统),具有降低高度的CPU托盘,同时维持完整的6U高度GPU托盘,最大限度地发挥空气冷却效能。
超微致力于通过创新的IT解决方案推动全球数字化转型,其多样化的产品组合和服务将继续为企业、云服务提供商以及科研机构提供强大的技术支持。
超微的新系统不仅支持即将推出的NVIDIA HGX B300平台,还通过优化前置I/O设计,简化布线,提高散热效率与计算密度,降低运营成本(OPEX)。超微行政总裁暨主席梁见后表示:“我们的DLC-2 NVIDIA HGX B200系统引领了我们的产品组合,帮助AI工厂实现更高效的能源利用并加快上线时间。凭借我们的Building Block架构,我们能够迅速响应客户需求,提供定制化解决方案。”
新一代直接液冷解决方案DLC-2,专为满足AI优化数据中心不断升级的需求而设计,可显著提升高密度计算环境中的运行效率与成本效益。例如,该系统能节省高达40%的数据中心电力消耗,使用进水温度高达45°C的温水冷却技术,减少耗水量,并通过液冷CPU、GPU、DIMM、PCIe交换器等组件,最高可捕获98%的系统热量,在低至50分贝的噪音水平下操作。
此外,超微提供了多样化的NVIDIA HGX B200解决方案组合,包括两套新的前置I/O系统和六套后置I/O系统,使客户可以根据具体需求选择最优配置。全新4U与8U前置I/O NVIDIA HGX B200系统基于大规模AI训练与推理部署的成功经验,解决了网络、布线和散热部署中的主要难题。
英伟达GPU产品管理副主席Kaustubh Sanghani指出:“先进的基础设施正在推动各行业的AI工业革命。基于最新的NVIDIA Blackwell架构,超微的新一代前置I/O B200系统使企业能够以前所未有的速度部署和扩展AI,带来突破性创新,赋能企业实现更高效率和卓越运营。”
现代AI数据中心要求高度可扩展性,这需要大量节点对节点的连接。新系统的8个高效能400G NVIDIA ConnectX-7网络接口控制器(NIC)和2个NVIDIA Bluefield-3数据处理单元(DPU)被移至系统前端,以便从冷通道配置网络线、光驱插槽托架和管理。NVIDIA Quantum-2 InfiniBand与Spectrum-X以太网平台均获得全面支持,确保计算架构性能保持最高水准。
超微还针对AI数据中心工作负载进行了元件微调,最大化效率和性能,大幅削减成本。配备32个DIMM插槽的升级内存扩展功能,使系统内存配置更加灵活,实现大容量内存。大型系统内存有助于NVIDIA HGX B200的HBM3e GPU内存消除CPU与GPU瓶颈,优化大量工作负载处理,提升虚拟化环境中的多工作效率,并加速数据预处理。
所有超微的4U液冷系统和8U或10U气冷系统均已针对NVIDIA HGX B200 8-GPU进行优化,每个GPU通过第五代NVLink以1.8TB/s的速度连接,每个系统总计可提供1.4TB的HBM3e GPU内存。与上一代Hopper GPU相比,NVIDIA的Blackwell平台为大型语言模型(LLM)提供高达15倍的实时推理性能和3倍的训练速度。
全新推出的4U前置I/O液冷系统具有前置可达的NIC、DPU、存储空间和管理组件,采用双插槽Intel Xeon 6700系列处理器,效能核心(P-core)的最大功耗可达350W,并采用NVIDIA HGX B200 8-GPU配置(每个GPU为180GB HBM3e)。系统支持32个DIMM,容量高达8TB,速度达5200MT/s,或最高可达4TB的DDR5寄存器主存模块(RDIMM),加上8个热插拔E1.S NVMe存储槽和2个M.2 NVMe启动磁盘驱动器。
8U前置I/O气冷系统则共享相同的前置可达架构和核心规格,同时为没有液冷基础设施的AI工厂提供简化解决方案。此气冷系统采用紧凑的8U外形尺寸(相较于超微的10U系统),具有降低高度的CPU托盘,同时维持完整的6U高度GPU托盘,最大限度地发挥空气冷却效能。
超微致力于通过创新的IT解决方案推动全球数字化转型,其多样化的产品组合和服务将继续为企业、云服务提供商以及科研机构提供强大的技术支持。
上一条: 苹果新品前瞻:从智能手表到智能手机的全面升级
下一条: 台积电2纳米机密流向日本,背后原因引发关注