【硬件资讯】三大内存厂商进一步推动永盈会HBM进步!海力士与台积电结盟三星与美光不断推进HBM单片容量!
发布时间 : 2024-03-04 浏览次数 : 次HBM产品被认为是人工智能(AI)计算的支柱之一,近两年行业发展迅速。在人工智能和高性能计算(HPC)的影响下,推动着存储器厂商的收入增长。作为英伟达高带宽存储器合作伙伴,SK海力士目前在HBM市场的处于领导地位。此前有 报道 称,SK海力士将在2026年大规模生产HBM4,用于下一代人工智能芯片。
据Pulse News Korea 报道 ,最近SK海力士制定了“One Team”战略联盟,正在逐渐成型,其中包括台积电(TSMC)的参与,双方将合作开发HBM4芯片。据了解,台积电将负责部分生产流程,极有可能负责封装和测试部分,以提升产品的兼容性。
HBM类产品前后经过了HBM(第一代)、HBM2(第二代)、HBM2E(第三代)、HBM3(第四代)、HBM3E(第五代)的开发,其中目前最为先进的HBM3E是HBM3的扩展(Extended)版本,而HBM4将是第六代产品。HBM4堆栈将改变自2015年以来1024位接口的设计,采用2048位接口,而位宽翻倍也是是HBM内存技术推出后最大的变化。由于2048位接口需要在集成电路上进行非常复杂的布线,可能需要台积电更为先进的封装技术来验证HBM4芯片。
永盈会
有消息称,HBM4芯片将用于Blackwell架构GPU第二次迭代升级中。
虽然我们在昨天的资讯里,聊到了海力士在HBM内存领域的优势,但目前的AI芯片领域就像是逆水行舟,不就则退。海力士并没有因为优势就放慢脚步,反而是穷极一切机会去寻求进步!目前有消息称,海力士制定了“One Team”战略联盟,其中就拉拢了台积电,一同研究下一代HBM4内存,这有利于海力士继续提升市场定位。目前的海力士已经算是乘着AI浪潮最成功的厂商之一,不知道未来还将创造多大的成就!
美光 宣布 ,已开始批量生产HBM3E,将用于英伟达H200,该GPU计划在2024年第二季度开始发货。美光表示,这一里程碑让其处于业界的最前沿,以行业领先的HBM3E性能和能效为人工智能(AI)解决方案提供支持。
早在去年7月,美光就 宣布 推出业界首款带宽超过1.2TB/s、引脚速度超过9.2GB/s、8层垂直堆叠的24GB容量HBM3E,采用了其1β(1-beta)工艺制造,性能相比目前出货的HBM3解决方案提高了50%。据介绍,美光HBM3E产品的每瓦性能是前几代产品的2.5倍,为人工智能数据中心的性能永盈会、容量和功率效率等关键指标创造了新的记录,可以减少GPT-4等大型语言模型的训练时间,并提供了卓越的总拥有成本(TCO)。美光称,其HBM3E的功耗比竞争对手SK海力士和三星的同类产品低了30%。
美光还准备了12层垂直堆叠的36GB容量HBM3E,在给定的堆栈高度下,提供的容量增加了50%,随着技术的进步,美光将硅通孔(TSV)增加了一倍,金属密度增加了五倍,从而降低了热阻抗,加上节能的数据路径设计,因此让能效得以提高。
下个月英伟达的GTC 2024上,美光将会带来36GB容量HBM3E,并分析更多的产品信息。
而HBM内存这么大的蛋糕,其他内存厂商自然也是觊觎的。美光这边,已经在其他方向上寻求突破了。AI专业卡对显存容量提出了更高的需求,美光的探究方向就在于堆高HBM内存的单片容量。此前已经展示过的24GB的HBM3E即将步入量产,并由此,拿下了NVIDIA的订单,这算是一个很不错的消息了。另外,美光的12层垂直堆叠的36GB容量HBM3E也已经准备好了,预计会在不久后登场展示,真的是进步神速啊……
去年10月,三星举办了“Samsung Memory Tech Day 2023”活动,展示了一系列引领超大规模人工智能(AI)时代的创新技术和产品,并 宣布 推出名为“Shinebolt”的新一代HBM3E DRAM,面向下一代人工智能应用,提高总拥有成本(TCO),并加快数据中心的人工智能模型训练和推理速度。
今天三星 宣布 已开发出业界首款HBM3E 12H DRAM,拥有12层堆叠。其提供了高达1280GB/s的带宽,加上36GB容量,均比起之前的8层堆栈产品提高了50%,是迄今为止带宽和容量最高的HBM产品。
HBM3E 12H DRAM采用了先进的热压非导电薄膜(TC NCF)技术,使得12层产品与8层产品有着相同的高度规格,满足了当前HBM封装的要求。这项技术预计会带来更多优势,特别是在更高的堆叠上,业界正在努力减轻芯片裸片变薄带来的裸片翘曲。三星不断降低其NCF材料的厚度,并实现了业界最小的芯片间隙(7µm),同时还消除了层间空隙。这些努力使其与HBM3 8H DRAM相比,垂直密度提高了20%以上。
三星的热压非导电薄膜技术还通过芯片间使用不同尺寸的凸块改善HBM的热性能,在芯片键合过程中,较小凸块用于信号传输区域,而较大凸块则放置在需要散热的区域,这种方法有助于提高产品的良品率。
三星表示,在人工智能应用中,采用HBM3E 12H DRAM预计比HBM3E 8H DRAM的训练平均速度提高34%,同时推理服务用户数量也可增加超过11.5倍。据了解,三星已经开始向客户提高HBM3E 12H DRAM样品,预计今年下半年开始大规模量产。
不过在36GB容量HBM3E这个领域,似乎有另一个厂商捷足先登了。但值得一提的是,三星的HBM3E是目前唯一一家没拿到NVIDIA的订单的厂商,虽然技术够先进,但市场似乎不怎么认可。从三星、美光两家接连发布同一技术来看,HBM3E的技术推进并没有什么瓶颈,各家的进度是基本一致的,剩下的就是看市场选择了。
永盈会