0

内存芯片的疯狂或将在2024年重演

 3 months ago
source link: https://www.36kr.com/p/2647830913940611
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.

内存芯片的疯狂或将在2024年重演

半导体产业纵横·2024-02-18 02:30
2024年的内存市场值得期待。

糟糕的2023年已经过去,存储芯片市场正在酝酿一场新的爆发。

据TrendForce统计,2023年第四季度,全球DRAM(内存)和NAND闪存的价格约上涨 3%~8%。相对于PC市场而言,服务器DRAM市场对增长起到更大作用。

2024年,随着运算速度的提升,DRAM和NAND闪存在各类AI应用,如智能手机、服务器、笔电的单机平均搭载容量都会增长,其中,服务器应用的增长幅度最高。

智能手机方面,2023年,由于供过于求,存储器价格快速下跌,由于价格很低,推升了2023年智能手机DRAM单机平均搭载容量年增17.5%。2024年,在没有新应用推出的预期下,智能手机DRAM的单机平均搭载容量的增长幅度将放缓,预估为11%。

服务器方面,伴随AI服务器需求持续增加,高端AI芯片陆续推出,由于训练是目前AI市场主流,其采用的存储器是以有助于高速运算的DRAM为主,与NAND闪存相比,DRAM的单机平均搭载容量增长幅度更高,预计年增17.3%。

笔电方面,预计搭载新款CPU的笔电要到下半年才会陆续推出,对拉高存储器容量的帮助有限,另外,AI PC要求DRAM容量加大至16GB,预计笔电DRAM的单机平均搭载容量年增率约为12.4%。

01 AI服务器带动DDR5和HBM加速前进

DDR5加速渗透

AI大模型持续迭代升级,参数持续增长,大模型的参数规模越大,算力负担越重,而AI服务器是算力的核心。2023年,AI服务器(搭载GPU、FPGA、ASIC等高算力芯片)出货量近120万台,年增38.4%,占整体服务器出货量的9%,按照这个势头发展下去,2026年将占到15%的市场份额。

更多的大模型参数需要大容量、高速的内存支持,美光在法说会上表示,一台AI服务器的DRAM使用量是普通服务器的6-8倍。到2026年,预计服务器DRAM(不含HBM)市场规模有望达到321亿美元。

针对AI服务器的高性能要求,更强大的内存——DDR5需求随之提升。与DDR4相比,DDR5具备更高速度、更大容量和更低能耗等特点。DDR5内存的最高传输速率达6.4Gbps,比DDR4高出一倍。

内存接口芯片是服务器内存模组的核心逻辑器件,作为服务器CPU存取内存数据的必由通路,其主要作用是提升内存数据访问的速度和稳定性,满足服务器CPU对内存模组日益增长的高性能和大容量需求。

随着DDR内存技术向DDR5演进,内存接口芯片的用量也在增加。英特尔和AMD支持DDR5的新平台推出后,服务器DDR5又出现了PMIC匹配问题,使得DDR5的市场规模不能快速提升,新平台的推出受阻,目前,DRAM原厂和PMIC厂商都已着手解决该问题。虽然短期内原厂DDR5供应受阻,但由于PMIC供应厂商较多,切换及适配不会成为DDR5渗透率提升的瓶颈,服务器DDR5渗透率有望于今年达到30%左右。随着AI服务器的加速发展以及PMIC良率问题逐步得到解决,DDR5渗透率有望进一步提升,2026年将达到85%。

存算一体落地之前,HBM将唱主角

目前,GPU主流内存方案为GDDR和HBM(高带宽内存)两种,其中,GDDR在SoC周围有大量外设,该方案已经从GDDR5升级为GDDR6,以提高带宽。但是,如果GDDR要增加1GB的带宽,将会带来更多功耗,不利于系统性能提升。

HBM方案作为近存计算的典型技术,可以改善存算分离导致的“存储墙”问题,即存储单元的带宽问题、存储单元与计算单元数据传输的能效问题,并且,HBM中Die裸片的垂直堆叠也增大了容量。因此,在存算一体真正落地之前,HBM技术是契合当前GPU对更多内存、更高带宽需求的最佳方案。

HBM的特点是大容量、高带宽(带宽用于衡量DRAM传输数据的速率,是核心技术指标),它将多个DDR裸片堆叠在一起后和GPU封装在一起,实现大容量、高位宽的DDR组合阵列。

2013年,SK海力士率先推出HBM1,HBM1每个堆栈的带宽为128GB/s、支持4个DRAM堆栈集成,容量为每堆栈4GB。2017年,SK海力士推出了HBM2,它的带宽和容量与HBM1相比实现翻倍增长。2018年,JEDEC推出了HBM2e规范,HBM2e可以实现每堆栈461GB/s的带宽。SK海力士于2022上半年开始量产HBM3,带宽达到819.2 GB/s,支持12个DRAM堆栈集成,容量达每堆栈24GB。2023年,主流市场需求从HBM2e转向HBM3,HBM3需求占比提升至39%,随着使用HBM3的加速芯片陆续放量,预计2024年HBM3的市场需求占比将达到60%。

2023年底,英伟达发布了DGX GH200,进一步推升了AI服务器对内存性能的需求,DGX GH200共链接了256个Grace Hopper超级芯片,具有144TB的共享内存,GH200单卡配备了480GB LPDDR5内存和96GB的HBM显存,而在上一代DGX H100服务器中,平均单个H100芯片对应256GB内存和80GB的HBM。二者对比,GH200方案的内存容量有显著提升。

TrendForce认为,英伟达正在规划更多HBM供应商,美光(Micron)、SK海力士、三星都已于2023年陆续提供了8hi(24GB)样品,三星的HBM3(24GB)已经在2023年底完成验证。三大内存原厂的HBM3e规划和进度如下表所示。

interlace,1

由于HBM的验证过程繁琐,预计耗时两个季度,以上三大内存原厂都预计于2024年第一季完成验证。各原厂的HBM3e验证结果,也将决定英伟达2024年HBM供应商的采购权重分配。

展望2024年,需要观察各AI芯片供应商的项目进度。

英伟达2023年的高端AI芯片(采用HBM的)的既有产品为A100、A800和H100、H800,2024年,除了上述型号外,该公司还将推出使用6个HBM3e的H200和8个HBM3e的B100,并同步整合自家基于Arm架构的 CPU,推出GH200和GB200。

2024年,AMD将重点出货MI300系列,采用HBM3,下一代MI350将采用HBM3e,将在2024下半年开始进行HBM验证,预计大规模量产时间将出现在2025年第一季度。

英特尔方面,2022下半年推出了Habana Gaudi 2,采用6个HBM2e,预计2024年新型号Gaudi 3将继续采取HBM2e,但用量将升级至8个。

02 三大内存原厂的表现

不久前,SK海力士公布了HBM发展路线图,该公司副总裁Kim Chun-hwan透露,计划在2024上半年量产HBM3e,并向客户交付8层堆叠样品,在6层堆栈HBM3e配置中,每层堆栈可提供1.2 TB/s的通信带宽,8层堆叠将进一步提升HBM内存的带宽。

Kim Chun-hwan表示,在不断升级的客户期望的推动下,存储行业正在面临激烈的生存竞争。随着制程工艺节点的缩小接近极限,存储器厂商越来越关注新一代存储架构和工艺,以给客户应用系统提供更高的性能。为此,SK海力士已经启动了HBM4的开发,计划于2025年提供样品,并于次年量产。

根据美光提供的信息,与前几代HBM相比,HBM4每层堆栈的理论峰值带宽将超过1.5 TB/s。为了实现这样的带宽,在保持合理功耗的同时,HBM4的目标是实现大约6GT/s的数据传输速率。

三星也有发展HBM4的时间表,计划于2025年提供样品,并于2026年量产。据三星高管Jaejune Kim透露,该公司HBM产量的一半以上是定制化产品,未来,定制HBM方案的市场规模将进一步扩大。通过逻辑集成,量身定制的HBM对于满足客户个性化需求至关重要。

三星和SK海力士之间的竞争正在升温。

一些市场观察人士表示,三星在HBM芯片开发方面落后于SK海力士,为了在新接口标准CXL开发中占据优势地位,三星加快了技术研发和产品布局。

三星电子执行副总裁兼美国内存业务主管 Lee Jung-bae在一篇博客文章中表示,该公司将扩大32GB DDR5及1TB模块产能,他表示:“我们将积极利用CXL内存模块 (CMM) 等新型接口,这将有助于实现内存带宽和容量可以根据运营需求无缝扩展。”

SK海力士也表示,计划加大对高带宽内存和DDR5芯片的投资,以适应人工智能市场的增长需求。“与2023年相比,2024年的资本支出将有所增加。……我们将最大限度地提升资金利用效率”,SK海力士副总裁兼首席财务官金宇贤表示:“在2023年投资金额的范围内,我们根据产品优先顺序调整了资本支出,2024年,我们将更多地关注转换制程工艺,而不只是增加产能。”

金宇贤表示,SK海力士将努力扩大第四代和第五代10nm级制程内存芯片的比例,到2024年底,这些新品将占据该公司DRAM产量的一半以上。不过,他表示,要达到2022年第四季度的产能水平,还需要相当长时间。

SK海力士对引领HBM市场充满信心,预测未来5年的年均增长率将达到60%~80%。该公司DRAM营销主管Park Myung-soo表示:“我们2024年的HBM3和HBM3e芯片产能已经售罄。根据客户和市场观察人士的说法,我们的HBM3产能份额非常高。”

据TrendForce统计,2023年第三季度,SK海力士挤下三星电子,成为全球最大的服务器DRAM厂商。报告显示,2023年第三季度,SK海力士服务器DRAM销售额达到18.5亿美元,拿下49.6%的市场份额,稳居全球龙头宝座,排名第二的三星电子,在该季度的服务器DRAM销售额为13.13亿美元,市占率为35.2%,同期内,美光的服务器DRAM销售额为5.6亿美元,市占率为15.0%,排名第三。

需要指出是,以上统计数字仅是传统服务器搭载的DDR5内存,不包括用于AI服务器的HBM,若将HBM销售计算在内,SK海力士领先三星电子的幅度会更大。

2024年1月24日,SK海力士发布了FY2023财报,营收为32.77万亿韩元,同比下降27%。单看FY2023Q4表现,营收为11.31万亿韩元,同比增长47%,环比增长25%。DRAM业务Q4营收7.35万亿韩元,同比增长49.15%,环比增长20.98%。该公司在FY2023年Q4扭亏为盈,业绩开始全面反弹。SK海力士表示,自FY2023年Q4开始,该公司用于AI服务器和移动端的产品需求都在增长,平均售价上升,存储器市场环境有所改善。整个FY2023,该公司的DRAM凭借技术实力积极响应了客户需求,主力产品DDR5和HBM3的收入同比分别增长4倍和5倍。

就整体DRAM模块市场而言,三星电子仍稳居DRAM霸主地位,但SK海力士正在急起直追。据Omdia统计,2023年第三季度,三星电子在DRAM领域市占率为39.4%,SK海力士以35%的市占率居次位,美光排名第三,市占率为21.5%。

排名内存行业第三位的美光也在加紧布局AI服务器市场,该公司计划在2024年第一季度量产HBM3e,以抢攻英伟达的超级计算机DGX GH200商机。美光技术开发事业部资深副总裁Naga Chandrasekaran表示,采用EUV技术量产的1-gamma制程产品,正在研发过程中,预计于2025年量产。

业界人士指出,在HBM产品开发方面,虽然美光落后三星和SK海力士近一年时间,但在新一代HBM3e产品开发和量产进度方面,该公司加快了节奏,有望在HBM竞赛中扳回一城。

通过分析全球芯片市场不同细分领域的年度销售数据,包括存储器、微处理器、逻辑电路、模拟电路、分立器件和光电子器件,结合不同领域年度销售额同比增速的趋势,按照一轮周期中同比增速的最小值为周期底部、同比增速的最大值为周期顶部,可以得出以下结论:2002年、2008年、2011年、2015年、2019年、2023年是半导体行业周期底部,2004年、2010年、2014年、2017年、2021年是周期顶部。全球半导体市场大约每隔4~5年经历一轮周期,不同细分领域周期底部时间点略有差别。

在上述所有半导体细分领域中,存储器周期波动最大,在上行周期的顶部,2010年、2017年存储器销售额同比增长分别为55%、61%,在下行周期的底部,2002年、2019年存储器销售额同比下降了30%、33%。据WSTS统计,2022年全球半导体销售额为5741亿美元,其中,存储器销售额为1298亿美元,占全球半导体销售总额的22.6%,在过去20年内,存储器长期占半导体销售总额比重的20%以上。因此,存储器是集成电路中销售额最大的细分领域,在整个产业中占据核心地位,存储器市场变化周期是影响半导体周期的主要因素。

DRAM的上一轮周期在2017年12月左右见顶,在2019年12月触底,下行周期持续时间在两年时间,随后经历了一年半左右的上行周期,上一轮周期持续了3-4年。本轮DRAM周期在2021年4月左右见顶,在2023年9月触底,10月价格反弹。本轮下行周期持续时间已达两年半,新一轮的DRAM上行周期已经开始。

或许在2024和2025年,内存市场有望掀起新一波需求热潮,重现2017和2018年辉煌的市场景象。

本文来自微信公众号“半导体产业纵横”(ID:ICViews),作者:畅秋,36氪经授权发布。

该文观点仅代表作者本人,36氪平台仅提供信息存储空间服务。


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK