新用户登入 登录

萌子岛

  • 8
  • 0

各原厂2024年第一季NVIDIA完成HBM3e产品验证,HBM4预定26年推出

1023粉丝
darthracer Elysion~楽的次元2023-12-23 09:10 显示全部楼层 |阅读模式
<
NVIDIA持续扩展AI芯片产品,高端芯片市场拥最大优势HBM4或转至定制化,摆脱Commodity DRAM产品框架

1.jpg

TrendForce最新HBM市场研究显示,为了更妥善健全的供应链管理,NVIDIA也规划加入更多HBM供应商,三星(Samsung)HBM3(24GB)预定12月完成验证,HBM3e进度依时间轴排列如下表,美光(Micron)7月底提供8hi(24GB)NVIDIA样品、SK海力士(SK hynix)8月中提供8hi(24GB)样品、三星10月初提供8hi(24GB)样品。

2.jpg

HBM验证过程繁琐,预计耗时两季,TrendForce预期最快年底取得部分厂商HBM3e验证结果,三大原厂均预定2024年第一季完成验证。各原厂HBM3e验证结果将决定最终NVIDIA 2024年HBM供应商采购权重分配,然验证皆未完成,故2024年HBM整体采购量有待观察。

预期2024年,各AI芯片供应商开案进度,NVIDIA今年高端AI芯片(采HBM)既有产品为A100/A800及H100/H800;2024年组合(Product Portfolio)更细致化分类。除了原上述型号,更推出六颗HBM3e的H200及八颗HBM3e的B100,并同步集成NVIDIA自家基于Arm架构的CPU与GPU,推出GH200及GB200。

3.jpg


同时期AMD与英特尔产品规划,AMD 2024年出货主流为MI300系列,采HBM3,下一代MI350采HBM3e,2024下半年开始HBM验证,实际产品放量(Ramp Up)时间预估应为2025年第一季。

以英特尔Habana来看,2022下半年推出的Gaudi 2采六颗HBM2e,2024年中预期新型号Gaudi 3持续采HBM2e,但用量升级至八颗,TrendForce认为,NVIDIA HBM规格、产品准备度(Readiness)及时间轴,有望持续以领先GPU规格取得AI芯片竞局领先。

除了HBM3与HBM3e,TrendForce了解,HBM4规划2026年推出,含NVIDIA及其他CSP(云计算企业)产品应用,规格和性能优化。受规格往高速发展带动,将首次看到HBM最底层Logic die(又名Base die)采12纳米制程,由芯片代工厂提供,使单颗HBM产品需结合芯片代工厂与内存厂合作。

随着客户运算性能要求提升,HBM4堆栈层数除了现有12hi(12层),也再往16hi(16层)发展,更高层数也带动新堆栈方式hybrid bonding需求。HBM4 12hi产品2026年推出;16hi产品2027年问世。

最后TrendForce观察,HBM4各买方开始启动定制化要求,除了HBM可能不再仅排列在SoC主芯片旁边, 也有部分讨论转向堆栈在SoC主芯片上。虽然所有选项仍在讨论可行性,尚未定案,但TrendForce认为将来HBM产业转至更定制化角度,比其他DRAM产品定价及设计,更能摆脱Commodity DRAM框架,呈特定化的生产。
您需要登录后才可以回帖 登录 | 新用户登入

小黑屋|萌子岛

GMT+8, 2025-1-31 17:04 , Processed in 0.377828 second(s), 27 queries , Gzip On, MemCache On.

Copyright 2020  atollmoe©.a2.1.0 All rights reserved. 9+

Copyright 2009  supported by zhixuan© oeo© oko© All rights reserved.Thank you!

快速回复 返回顶部 返回列表