新闻摘要:HBM能够突破训练型AI服务器的GPU带宽极限,2024年增量空间预计超百亿美元。HBM(High Bandwidth Memory)即高带宽存储器,是基于2.5/3D封装技术的一种新型CPU/GPU内存芯片,将DRAM Die垂直堆叠,Die之间通过TSV的方式连接。HBM能够以低功耗产生高带宽,因此广泛搭配训练型AI服务器的GPU使用,训练型AI服务器对HBM需求的拉动主要体现在:
1)AI服务器搭载GPU数量的提升:由普通服务器的2个提升至目前的8个;
2)单个GPU搭载HBM Stack数量的提升:在HBM1方案中,单个GPU搭载4个HBM1,而在目前HBM2e或HBM3方案中,一般单个GPU搭配6个HBM Stack;
3)HBM堆叠的DRAM层数和容量增多:从HBM1到HBM3,单个DRAM Die密度从2Gb提升至16Gb,堆叠高度从4Hi提升至12Hi,单个HBM叠层容量从1GB提升至24GB。Trendforce预计2025年全球服务器出货量为1700万台,当前AI服务器渗透率大概不足2%,假设2024年AI服务器渗透率约4%,按照每个AI服务器搭载8个GPU、每个GPU搭载6个共80GB至100GB及以上的HBM Stack的方案测算,那么2024年AI服务器带来的HBM增量空间预计超百亿美元。
SK海力士2日宣布,公司在韩国京畿道利川总部举行了“AI时代,SK海力士蓝图和战略”为主题的国内外记者招待会,并公布了面向AI的存储器技术力及市场现状、韩国清州/龙仁/美国等未来主要生产据点相关的投资计划。
在龙仁半导体集群首座工厂竣工(2027年5月)三年前举行的此次活动,由SK海力士郭鲁正CEO、金柱善社长(AI Infra担当)、金钟焕副社长(DRAM开发担当)、 安炫副社长(N-S Committee担当)、金永式副社长(制造和技术担当)、崔宇镇副社长(P&T担当)、柳炳薰副社长(未来战略担当)、金祐贤副社长(CFO)等主要经营层出席了现场。
以下是记者招待会中公司管理层发表的主要内容。
<开场白 /郭鲁正CEO>
- 虽然目前的人工智能是以数据中心为主,但今后有望迅速扩散到智能手机、PC、汽车等端侧AI(On-Device AI)
- 因此,专门用于人工智能的“超高速、高容量、低电力”存储器需求将会暴增
- 公司具备了HBM、基于TSV的高容量DRAM、高性能eSSD等各产品领域的业界最高技术领导力
- 今后将通过与全球合作伙伴的战略合作,提供为客户量身定做的全球顶级存储器解决方案
- 目前,公司的HBM生产方面,今年已经全部售罄,明年也基本售罄
- 从HBM技术方面来看,公司为进一步巩固市场领导力,预计在今年5月提供世界最高性能的12层堆叠HBM3E产品的样品,并准备在第三季度开始量产。
- 公司希望成长为“在AI时代,客户最为信赖、不受行业变化影响、具有实力的企业”
<AI领域存储器展望 /金柱善社长(AI Infra担当)>
- 进人工智能时代后,全球产生的数据总量预计将从2014年的15ZB(Zetabyte,泽字节)*增长到2030年的660ZB。
* Zetabyte,泽字节:泽它(Zetta)是表示10的21次方。 按千字节(KB)、兆字节(MB)、吉字节(GB)、太字节(TB)、拍字节(PB)、艾字节(EB)、泽字节(ZB)的顺序单位增大,每一个单位以1000为倍数增加(如1ZB=10亿TB)。
- 面向AI的存储器收入比重也将大幅增加。HBM和高容量DRAM模块等面向AI的存储器在2023年整个存储器市场的占比约为5%(金额为准),预计到2028年可以达到61%。
- SK海力士已在多种AI应用领域确保技术领导力。
- DRAM方面,正在量产HBM3E和256GB以上的超高容量模块,世界最高速度的LPDDR5T也已实现商用。
- NAND方面也在业界唯一提供基于QLC的60TB以上SSD产品等,维持着世界顶级面相AI的存储器供应商地位。
- 不止于此,公司还在开发进一步改进现有产品的新一代产品。
- 不仅是HBM4和HBM4E、LPDDR6、300TB SSD,同时还在准备CXL Pooled(池化)存储解决方案*、PIM(Processing-In-Memory)*等创新的存储器。
* CXL Pooled Memory Solution:将多个CXL内存捆绑在一起构成池(Pool),让多个CPU、GPU等主机分享并使用其容量的解决方案
* PIM:在半导体存储器中添加运算功能,在人工智能(AI)和大数据处理领域解决数据传输停滞问题的新一代技术
- 同时,公司将与全球顶级(Top-tier)系统半导体、晶圆代工等领域的合作伙伴推进‘同一团队(One team)’合作,由此适时开发并提供最佳产品。
<SK海力士HBM核心技术力量和美国先进封装项目 /崔宇镇副社长(P&T担当)>
- 首先,介绍一下SK海力士的封装技术能力。公司拥有的HBM核心封装技术之一就是MR-MUF技术
- 虽然也有MR-MUF技术在高层堆叠方面可能会存在瓶颈的意见,但实际上并非如此,公司已经在使用先进(Advanced)MR-MUF技术量产12层堆叠HBM3产品
- MR-MUF技术与过去的工艺相比,将芯片堆叠压力降低至6%的程度,也缩短工序时间,并将生产效率提高至4倍,散热率提高了45%
- 同时,公司最近引进的先进MR-MUF技术在维持MR-MUF优点的同时,采用新的保护材料,得以散热性能改善10%
- 最终,先进MR-MUF技术在芯片弯曲现象控制(Warpage control)方面也采用卓越的高温/低压方式,是最为适合于高层堆叠的解决方案,为实现16层堆叠的技术开发也在顺利进展
- 公司计划在HBM4也采用先进MR-MUF技术,从而实现16层堆叠,正在积极研究混合键合(Hybrid bonding)技术
- 接下来讲一下关于美国投资的内容。公司在上个月确定在印第安纳州西拉斐特建设面向AI的存储器先进封装生产基地
- 印第安纳工厂将从2028年下半年开始量产新一代HBM等面向AI的存储器产品
- SK海力士将在该地区推进客户合作和加强AI领域竞争力,同时也将通过与周边大学及研究开发中心的研发合作培养半导体人才,为AI未来产业做出贡献
<韩国清州M15x及龙仁半导体集群投资 /金永式副社长(制造和技术担当)>
[M15x 投资背景及计划]
- 公司为了应对面向AI的存储器需求剧增,在龙仁半导体集群第一座工厂投产前需要扩大生产能力(Capacity),因此决定在已经确保用地的清州建设M15x
- M15x是一座双层晶圆厂,总面积达6万3000坪。其将具备包括EUV在内的一站式HBM生产工艺,与正在扩大TSV工艺生产能力的M15相邻,可最大程度地提高HBM生产效率
- 公司在四月开始M15x工厂的建设工程,计划在明年11月竣工后,从2026年第三季度正式投入量产
[龙仁半导体集群]
- 龙仁半导体集群占地面积达415万m2(约126万坪),其中公司的制造厂面积为56万坪,原材料、零部件和设备企业合作园区为14万坪,基础设施用地为12万坪。
- SK海力士计划依次建造四座工厂,国内外原材料、零部件和设备企业将入驻合作园区与SK海力士协力发展半导体生态系统。
- 集群用地建设进展顺利,SK海力士的首座工厂将入驻的第一阶段用地建设工程进展率约为42%,正在顺利进行中。
- 龙仁集群内SK海力士第一座工厂将于2025年3月开工,预计在2027年5月竣工。
- 同时,集群将投入约9000亿韩元,建设迷你工厂。
- 迷你工厂与实际量产环境相似,原材料、零部件和设备企业可以在此进行试制品验证,将会得到提高技术完成度的最佳解决方案。