今年原厂HBM已售罄
* 来源 : * 作者 : admin * 发表时间 : 2024-02-27
继先前美光宣布HBM产能全部售罄之后,SK海力士今年的HBM产能也已经全部售罄。
随着生成式人工智慧(AI)市场的爆发,也带动了AI晶片需求的暴涨。AI晶片龙头英伟达业绩更是持续飙升,最新公布的第四财季财报显示,营收年增265%至221亿美元,净利润同比暴涨769%至122.85亿美元,持续突破历史记录,推动英辉市值突破2兆美元。
随着AI晶片需求持续大涨,作为目前AI晶片当中的极为关键的装置,HBM(高频宽记忆体)也是持续供不应求,储存大厂积极瞄准HBM扩产。
其中,三星电子从2023年第四季开始扩大HBM3的供应。先前2023年第四季三星内部消息显示,已经向客户提供了下一代HBM3E的8层堆叠样品,并计划在今年上半年开始量产。到下半年,其占比预计将达到90%左右。负责三星美国半导体业务的执行副总裁Han Jin-man则在今年CES 2024上表示,三星今年的HBM晶片产量将比去年增加2.5倍,明年也将持续提高2倍。
三星官方也透露,该公司计划在今年第四季之前,将HBM 的最高产量提高到每月15万至17万件,以此来争取2024年的HBM市场。先前三星电子斥资105亿韩元收购了三星显示位于韩国天安市的工厂和设备,以扩大HBM产能,同时也计划投资7,000亿至1兆韩元新建封装线。
去年12月,美光CEO Sanjay Mehrotra对外透露,得益于生成式AI的火爆,推动了云端高效能AI晶片对于高频宽记忆体的旺盛需求,美光2024年的HBM产能预计已全部售罄。
美光指出,专为AI、超级电脑设计的HBM3E预计2024年初量产,预计2024会计年度创造数亿美元的营收。Mehrotra对分析师表示,“2024年1~12月,美光HBM预估全数售罄”。
美光也相信,终端能执行AI任务的PC、行动设备,对记忆体晶片蕴藏极大潜能。
Mehrotra预测,PC出货量在连两年出现双位数跌幅后,可望2024年成长1%~5%。他相信,PC制造商2024下半年扩产AI PC,这些PC每台需要额外4~8Gb DRAM,固态硬碟(SSD)需求也会上扬。
Mehrotra也表示,长期而言,许多热门生成式AI程式的主战场会是智慧型手机,美光的产品组合有望抓住这次记忆体及储存市场潜藏的机会。美光计划增加2024会计年度的资本支出,但高层承诺会“极度节制”(extremely disciplined)。
继先前美光宣布今年HBM产能全部售罄后,最新的消息显示,SK海力士今年的HBM产能也已经全部售罄。
虽然整个2023年全球半导体市场遭遇了“寒流”,特别是记忆体晶片市场更是下滑严重。但是,受惠于生成式AI带来的需求,面向AI应用的DRAM依然维持了快速的成长。
SK海力士在2023年财报当中就曾表示,2023年在DRAM方面,公司以引领市场的技术实力积极应对了客户需求,公司主力产品DDR5 DRAM和HBM3的营收较2022年分别成长4倍和5倍以上。
近日,SK海力士副总裁Kim Ki-tae(金基泰)在一篇部落格文章中表示,今年公司的HBM已经售罄,已开始为2025年做准备。虽然外部不稳定因素依然存在,但今年记忆体半导体产业已开始呈现上升趋势。全球大型科技客户对产品的需求正在复苏,随着人工智慧使用领域的扩大,包括配备自己的人工智慧的设备,如个人电脑和智慧型手机,对DDR5、LPDDR5T以及HBM3E等产品的需求预计会增加。
据悉,辉达(英伟达)和AMD的下一代人工智慧GPU预计将主要搭载HBM3记忆体。例如,H100是第一款支援PCIe 5.0标准的GPU,也是第一款采用HBM3的GPU,最多支援六颗HBM3,频宽为3TB/s,是A100采用HBM2E的1.5倍,预设显存容量为80GB。
2023年11月辉达发表了新一代AI GPU晶片H200,以及搭载这款GPU的AI伺服器平台HGX H200等产品。这款GPU是H100的升级款,依旧采用Hopper架构、台积电4nm制程工艺,根据英辉官网,H200的GPU晶片没有升级,核心数、频率没有变化,主要的升级便是首次搭载HBM3e显存,并且容量从80GB提升至141GB。
由于新升级的HBM3e晶片,H200的显存频宽可达4.8TB/s,比H100的3.35TB/s提升了43%。不过这远远没有达到HBM3e的上限,海外分析家称辉达有意降低HBM3e的速度,以追求稳定。如果与传统x86伺服器相比,H200的记忆体效能最高可达110倍。
AMD 的MI300 也搭配HBM3,其中,MI300A 容量与前一代相同为128GB,更高阶MI300X 则达192GB,提升了50%。AMD称,MI300X提供的HBM密度最高是辉达AI晶片H100的2.4倍,其HBM频宽最高是H100的1.6倍。这意味着,AMD的晶片可以运行比英辉晶片更大的模型。
在HBM盛行的当下,没有一家储存厂商能够忍住不分一杯羹。
随着生成式人工智慧(AI)市场的爆发,也带动了AI晶片需求的暴涨。AI晶片龙头英伟达业绩更是持续飙升,最新公布的第四财季财报显示,营收年增265%至221亿美元,净利润同比暴涨769%至122.85亿美元,持续突破历史记录,推动英辉市值突破2兆美元。
随着AI晶片需求持续大涨,作为目前AI晶片当中的极为关键的装置,HBM(高频宽记忆体)也是持续供不应求,储存大厂积极瞄准HBM扩产。
其中,三星电子从2023年第四季开始扩大HBM3的供应。先前2023年第四季三星内部消息显示,已经向客户提供了下一代HBM3E的8层堆叠样品,并计划在今年上半年开始量产。到下半年,其占比预计将达到90%左右。负责三星美国半导体业务的执行副总裁Han Jin-man则在今年CES 2024上表示,三星今年的HBM晶片产量将比去年增加2.5倍,明年也将持续提高2倍。
三星官方也透露,该公司计划在今年第四季之前,将HBM 的最高产量提高到每月15万至17万件,以此来争取2024年的HBM市场。先前三星电子斥资105亿韩元收购了三星显示位于韩国天安市的工厂和设备,以扩大HBM产能,同时也计划投资7,000亿至1兆韩元新建封装线。
去年12月,美光CEO Sanjay Mehrotra对外透露,得益于生成式AI的火爆,推动了云端高效能AI晶片对于高频宽记忆体的旺盛需求,美光2024年的HBM产能预计已全部售罄。
美光指出,专为AI、超级电脑设计的HBM3E预计2024年初量产,预计2024会计年度创造数亿美元的营收。Mehrotra对分析师表示,“2024年1~12月,美光HBM预估全数售罄”。
美光也相信,终端能执行AI任务的PC、行动设备,对记忆体晶片蕴藏极大潜能。
Mehrotra预测,PC出货量在连两年出现双位数跌幅后,可望2024年成长1%~5%。他相信,PC制造商2024下半年扩产AI PC,这些PC每台需要额外4~8Gb DRAM,固态硬碟(SSD)需求也会上扬。
Mehrotra也表示,长期而言,许多热门生成式AI程式的主战场会是智慧型手机,美光的产品组合有望抓住这次记忆体及储存市场潜藏的机会。美光计划增加2024会计年度的资本支出,但高层承诺会“极度节制”(extremely disciplined)。
继先前美光宣布今年HBM产能全部售罄后,最新的消息显示,SK海力士今年的HBM产能也已经全部售罄。
虽然整个2023年全球半导体市场遭遇了“寒流”,特别是记忆体晶片市场更是下滑严重。但是,受惠于生成式AI带来的需求,面向AI应用的DRAM依然维持了快速的成长。
SK海力士在2023年财报当中就曾表示,2023年在DRAM方面,公司以引领市场的技术实力积极应对了客户需求,公司主力产品DDR5 DRAM和HBM3的营收较2022年分别成长4倍和5倍以上。
近日,SK海力士副总裁Kim Ki-tae(金基泰)在一篇部落格文章中表示,今年公司的HBM已经售罄,已开始为2025年做准备。虽然外部不稳定因素依然存在,但今年记忆体半导体产业已开始呈现上升趋势。全球大型科技客户对产品的需求正在复苏,随着人工智慧使用领域的扩大,包括配备自己的人工智慧的设备,如个人电脑和智慧型手机,对DDR5、LPDDR5T以及HBM3E等产品的需求预计会增加。
据悉,辉达(英伟达)和AMD的下一代人工智慧GPU预计将主要搭载HBM3记忆体。例如,H100是第一款支援PCIe 5.0标准的GPU,也是第一款采用HBM3的GPU,最多支援六颗HBM3,频宽为3TB/s,是A100采用HBM2E的1.5倍,预设显存容量为80GB。
2023年11月辉达发表了新一代AI GPU晶片H200,以及搭载这款GPU的AI伺服器平台HGX H200等产品。这款GPU是H100的升级款,依旧采用Hopper架构、台积电4nm制程工艺,根据英辉官网,H200的GPU晶片没有升级,核心数、频率没有变化,主要的升级便是首次搭载HBM3e显存,并且容量从80GB提升至141GB。
由于新升级的HBM3e晶片,H200的显存频宽可达4.8TB/s,比H100的3.35TB/s提升了43%。不过这远远没有达到HBM3e的上限,海外分析家称辉达有意降低HBM3e的速度,以追求稳定。如果与传统x86伺服器相比,H200的记忆体效能最高可达110倍。
AMD 的MI300 也搭配HBM3,其中,MI300A 容量与前一代相同为128GB,更高阶MI300X 则达192GB,提升了50%。AMD称,MI300X提供的HBM密度最高是辉达AI晶片H100的2.4倍,其HBM频宽最高是H100的1.6倍。这意味着,AMD的晶片可以运行比英辉晶片更大的模型。
在HBM盛行的当下,没有一家储存厂商能够忍住不分一杯羹。