《科创板日报》5月30日讯(编辑 邱思雨)昨日,英伟达创始人黄仁勋在COMPUTEX 2023现场发布了重磅产品超级计算机DGX GH200。
【资料图】
据介绍,DGX GH200共链接256个Grace Hopper超级芯片,能够提供1exaflop的性能、具有144TB的共享内存,相较2020年推出的上一代DGX A100,内存容量扩大了近500倍。
台湾经济日报今日报道指出,DGX GH200系统将推动内存需求大爆发,DRAM龙头南亚科及爱普、群联等内存相关厂商将显著受益。
市调机构集邦咨询近期也发布报告表示,AI服务器可望带动内存需求成长,以企业级SSD来看,AI服务器追求速度更高,要求优先往DRAM或HBM满足。此外,高阶深度学习AI GPU的规格也刺激HBM产品更迭,2023下半年伴随NVIDIA H100与AMD MI300的搭载,三大原厂(SK海力士、三星、美光科技)也已规划相对应规格HBM3的量产。
此外,业界认为,虽然当前AI服务器内存以HBM为主,但随着整体出货量持续增长,以及未来AI模型逐渐复杂化趋势下,也会刺激服务器DRAM、固态硬盘(SSD)用量激增,存储器相关厂商均有望受益。
算力推动存力
AI引爆的庞大算力需求推动AI服务器出货量高增,同时也对AI服务器的存力提出更高的需求,算力推动存力趋势凸显。中金公司测算,2023-2025年,仅AI需求就将会为存储带来80亿美元增量市场。
上文所述的HBM有望成为主流方案。HBM(high bandwidth memory)指高带宽内存。通过TSV堆栈的方式,HBM能达到更高的I/O数量,显存位宽能够达到1,024位,显著提升,此外还具有更低功耗、更小外形等优势。
2023年以来,三星、SK海力士两家存储大厂HBM订单快速增加,价格也水涨船高。集邦咨询报告显示,2023-2025年HBM市场CAGR有望成长至40-45%以上。多家机构亦指出,ChatGPT催生AI存力新需求,HBM芯片或将量价齐升。
DRAM也是AI时代的“宠儿”。华西证券在近期研报中指出,AI是DRAM行业增长引擎。在AI的大时代下,DRAM有望成为继GPU后,另外一重要算力核心。
在DRAM领域,CXL(Compute Express Link,计算快速链接)技术备受市场关注。CXL是一种全新的互联技术标准,其带来的DRAM池化技术可以大大节约数据中心的建设成本,同时也将大大带动DRAM的用量。机构普遍认为,节约下来的成本将会主要用于对DRAM的采购,TB级别的DRAM将会在更多通用性服务器中广泛使用。
总体来说,随着AI模型的运算数据量发生指数式增长,对更多的内存、更高的带宽提出需求。一方面DRAM技术迭代以满足需求,另一方面高带宽存储器(HBM)提供新的解决方案。
不过需要注意的是,DRAM大厂南亚科总经理李培瑛在相关报道中指出,ChatGPT兴起带来的AI应用,短时间是否会造成(存储)产业变化仍有待观察。但若未来AI需求成长呈现百花齐放,将带给产业很多的成长机会。
关于我们| 联系方式| 版权声明| 供稿服务| 友情链接
咕噜网 www.cngulu.com 版权所有,未经书面授权禁止使用
Copyright©2008-2023 By All Rights Reserved 皖ICP备2022009963号-10
联系我们: 39 60 29 14 2@qq.com