美元换人民币  当前汇率7.27

SK海力士今年HBM市占率将逾五成

* 来源 : * 作者 : admin * 发表时间 : 2023-04-18
AI伺服器出货动能强劲带动高宽频记忆体(high bandwidth memory,HBM)需求提升2022年三大原厂HBM市占率分别为SK海力士(SK hynix)50%、三星(Samsung)约40%、美光(Micron)约10%。SK海力士作为目前唯一量产新世代HBM3产品的供应商,其整体HBM市占率可望藉此提升至53%,而三星、美光则预计陆续在今年底至明年初量产,HBM市占率分别为38%及9%。
高阶深度学习AI GPU的规格也刺激HBM产品更迭,2023下半年伴随NVIDIA H100与AMD MI300的搭载,三大原厂也已规划相对应规格HBM3的量产。目前NVIDIA所定义的DL/ ML型AI伺服器平均每台均搭载4张或8张高阶显卡,搭配两颗主流型号的x86 伺服器CPU,而主要拉货力道来自于美系云端业者Google、AWS、Meta与Microsoft。
2022年高阶搭载GPGPU的伺服器出货量年增约10%,其中近80%的出货量均集中在中、美系八大云端业者。展望2023年,Microsoft、Meta、Baidu与ByteDance相继推出基于生成式AI衍生的产品服务而积极加单,预估今年AI伺服器出货量年增率可望达15%,2023~2027年AI 伺服器出货量年复合成长率约12%。
伺服器Server DRAM普遍配置约为500~600GB左右,而AI伺服器在单条模组上则多采64~128GB,平均容量可达1.5TB之间。以Enterprise SSD而言,由于AI伺服器追求的速度更高,其要求优先往DRAM或HBM满足。
相较于一般伺服器而言,AI伺服器多增加GPGPU的使用,因此以NVIDIA A100 80GB配置4或8张采计,HBM用量约为320~640GB。未来在AI模型逐渐复杂化的趋势下,将刺激更多的记忆体用量,并同步带动Server DRAM、SSD以及HBM的需求成长。