2/27/2024,光纖在線訊,美光科技今日宣布開始批量生產(chǎn) HBM3E 高帶寬內(nèi)存,其 24GB 8H HBM3E 產(chǎn)品將供貨給英偉達,并將應(yīng)用于 NVIDIA H200 Tensor Core GPU(第二季度開始發(fā)貨)。
據(jù)官方資料獲悉, 美光 HBM3e 內(nèi)存基于 1β 工藝,采用 TSV 封裝、2.5D / 3D 堆疊,可提供 1.2 TB / s 及更高的性能。
美光表示,與競爭對手的產(chǎn)品相比,其 HBM3E 解決方案有著以下三方面的優(yōu)勢:
-卓越性能:美光 HBM3E 擁有超過 9.2 Gb / s 的針腳速率、超過 1.2 TB / s 的內(nèi)存帶寬,可滿足人工智能加速器、超級計算機和數(shù)據(jù)中心的苛刻需求。
-出色能效:與競品相比,美光 HBM3E 功耗降低了約 30%,在提供最大吞吐量的前提下將功耗降至最低,有效改善數(shù)據(jù)中心運營支出指標。
-無縫擴展: 美光 HBM3E 目前可提供 24GB 容量,可幫助數(shù)據(jù)中心輕松擴展其 AI 應(yīng)用。無論是訓(xùn)練大規(guī)模神經(jīng)網(wǎng)絡(luò)還是加速推理任務(wù)都能提供必要的內(nèi)存帶寬。
美光科技執(zhí)行副總裁兼首席商務(wù)官 Sumit Sadana 表示:“美光科技憑借這一 HBM3E 里程碑實現(xiàn)了三連勝:上市時間領(lǐng)先、一流的行業(yè)性能以及差異化的能效概況!薄叭斯ぶ悄芄ぷ髫撦d嚴重依賴內(nèi)存帶寬和容量,美光處于有利位置,可以通過我們業(yè)界領(lǐng)先的 HBM3E 和 HBM4 路線圖以及我們用于人工智能應(yīng)用的完整 DRAM 和 NAND 解決方案組合來支持未來人工智能的顯著增長!。
HBM 是美光科技最賺錢的產(chǎn)品之一,部分原因在于其構(gòu)造所涉及的技術(shù)復(fù)雜性。該公司此前曾表示,預(yù)計 2024 財年 HBM 收入將達到“數(shù)億”美元,并在 2025 年繼續(xù)增長。
美光還宣布將會在 3 月 18 日召開的全球人工智能大會上分享更多有關(guān)其行業(yè)領(lǐng)先的人工智能內(nèi)存產(chǎn)品組合和路線圖的信息。
【來源:IT之家】