至于下一代的AI芯片,幾乎都已經擁抱了第六代HBM-HBM4。英偉達Rubin平臺將升級為HBM4,Rubin GPU內置8顆HBM4,而將于2027年推出的Rubin Ultra則更多,使用了12顆HBM4。AMD的MI400也奔向了HBM4。
從HBM供應商來看,此前AMD、英偉達等主要采用的是SK海力士。但現在三星也正在積極打入這些廠商內部,AMD和三星目前都在測試三星的HBM。6月4日,在臺北南港展覽館舉行的新聞發布會上,黃仁勛回答了有關三星何時能成為 Nvidia 合作伙伴的問題。他表示:“我們需要的 HBM 數量非常大,因此供應速度至關重要。我們正在與三星、SK 海力士和美光合作,我們將收到這三家公司的產品。”
HBM的競爭也很白熱化。SK海力士最初計劃在2026年量產HBM4,但已將其時間表調整為更早。三星電子也宣布計劃明年開發HBM4。三星與SK海力士圍繞著HBM的競爭也很激烈,兩家在今年將20%的DRAM產能轉向HBM。美光也已加入到了HBM大戰行列。
炙手可熱的HBM也成為了AI芯片大規模量產的掣肘。目前,存儲大廠SK Hynix到2025年之前的HBM4產能已基本售罄,供需矛盾日益凸顯。根據SK海力士預測,AI芯片的繁榮帶動HBM市場到2027年將出現82%的復合年增長率。分析師也認為,預計明年HBM市場將比今年增長一倍以上。
三星電子DRAM產品與技術執行副總裁Hwang Sang-joon在KIW 2023上表示:“我們客戶當前的(HBM)訂單決定比去年增加了一倍多。”三星芯片負責業務的設備解決方案部門總裁兼負責人 Kyung Kye-hyun 在公司會議上更表示,三星將努力拿下一半以上的HBM市場。三星內存業務執行副總裁Jaejune Kim對分析師表示,該公司將在2023年至2024年間將其HBM產能增加一倍。
互聯:重要的拼圖
AI芯片之間互聯一直是個難題,隨著近年來越來越多的加速器被集成到一起,如何高效傳輸數據成為了瓶頸。由于PCIe技術的發展速度跟不上時代需求,目前主流的AI芯片廠商都已經自研了互聯技術,其中較為代表的就是英偉達的NVlink和AMD的Infinity Fabric。
NVIDIA的下一代Rubin平臺,將采用NVlink 6交換機芯片,運行速度為3600GB/s,上一代的Blackwell采用的是NVlink 5.0。NVlink設計之初,就是為了解決傳統的PCI Express (PCIe) 總線在處理高性能計算任務時帶寬不足的問題。下圖顯示了英偉達各代NVlink的參數情況。
![](/member/kindeditor/attached/image/20240611/20240611153215_79166.png)