至于下一代的AI芯片,幾乎都已經(jīng)擁抱了第六代HBM-HBM4。英偉達(dá)Rubin平臺將升級為HBM4,Rubin GPU內(nèi)置8顆HBM4,而將于2027年推出的Rubin Ultra則更多,使用了12顆HBM4。AMD的MI400也奔向了HBM4。
從HBM供應(yīng)商來看,此前AMD、英偉達(dá)等主要采用的是SK海力士。但現(xiàn)在三星也正在積極打入這些廠商內(nèi)部,AMD和三星目前都在測試三星的HBM。6月4日,在臺北南港展覽館舉行的新聞發(fā)布會上,黃仁勛回答了有關(guān)三星何時能成為 Nvidia 合作伙伴的問題。他表示:“我們需要的 HBM 數(shù)量非常大,因此供應(yīng)速度至關(guān)重要。我們正在與三星、SK 海力士和美光合作,我們將收到這三家公司的產(chǎn)品?!?
HBM的競爭也很白熱化。SK海力士最初計劃在2026年量產(chǎn)HBM4,但已將其時間表調(diào)整為更早。三星電子也宣布計劃明年開發(fā)HBM4。三星與SK海力士圍繞著HBM的競爭也很激烈,兩家在今年將20%的DRAM產(chǎn)能轉(zhuǎn)向HBM。美光也已加入到了HBM大戰(zhàn)行列。
炙手可熱的HBM也成為了AI芯片大規(guī)模量產(chǎn)的掣肘。目前,存儲大廠SK Hynix到2025年之前的HBM4產(chǎn)能已基本售罄,供需矛盾日益凸顯。根據(jù)SK海力士預(yù)測,AI芯片的繁榮帶動HBM市場到2027年將出現(xiàn)82%的復(fù)合年增長率。分析師也認(rèn)為,預(yù)計明年HBM市場將比今年增長一倍以上。
三星電子DRAM產(chǎn)品與技術(shù)執(zhí)行副總裁Hwang Sang-joon在KIW 2023上表示:“我們客戶當(dāng)前的(HBM)訂單決定比去年增加了一倍多?!比切酒?fù)責(zé)業(yè)務(wù)的設(shè)備解決方案部門總裁兼負(fù)責(zé)人 Kyung Kye-hyun 在公司會議上更表示,三星將努力拿下一半以上的HBM市場。三星內(nèi)存業(yè)務(wù)執(zhí)行副總裁Jaejune Kim對分析師表示,該公司將在2023年至2024年間將其HBM產(chǎn)能增加一倍。
互聯(lián):重要的拼圖
AI芯片之間互聯(lián)一直是個難題,隨著近年來越來越多的加速器被集成到一起,如何高效傳輸數(shù)據(jù)成為了瓶頸。由于PCIe技術(shù)的發(fā)展速度跟不上時代需求,目前主流的AI芯片廠商都已經(jīng)自研了互聯(lián)技術(shù),其中較為代表的就是英偉達(dá)的NVlink和AMD的Infinity Fabric。
NVIDIA的下一代Rubin平臺,將采用NVlink 6交換機(jī)芯片,運(yùn)行速度為3600GB/s,上一代的Blackwell采用的是NVlink 5.0。NVlink設(shè)計之初,就是為了解決傳統(tǒng)的PCI Express (PCIe) 總線在處理高性能計算任務(wù)時帶寬不足的問題。下圖顯示了英偉達(dá)各代NVlink的參數(shù)情況。