記憶體大廠美光表示,資料中心對 AI 訓練與推論工作執行需求持續升溫,高效能記憶體重要性達歷史新高。美光 12 日宣布將 12 層堆疊的 36GB HBM4 送樣給多家主要客戶。
美光表示,此里程碑再次擴大美光 AI 記憶體效能和能源效率方面的領導地位。憑藉成熟 1β (1-beta) DRAM 製程、經驗證 12 層堆疊先進封裝及功能強大記憶體內建自我測試 (MBIST) 功能,美光 HBM4 為開發下代 AI 平台的客戶和合作夥伴提供無縫整合的解決方案。
美光指出,HBM4 記憶體有 2048 位元介面,每個記憶體堆疊的傳輸速率超過 2.0TB/s,效能較前一代產品提升逾 60%。這樣的擴展介面有助於實現高速通訊和高傳輸量設計,進而提高大型語言模型和思路鏈推理系統的推論效能。簡而言之,HBM4 將使 AI 加速器具備更快的反應速度與更高效的推理能力。
此外,延續美光前一代 HBM3E 記憶體曾在業界樹立無與倫比的 HBM 能源效率新標竿,HBM4 的能源效率再提升逾兩成,展現了更進一步的技術突破。這項進展能以最低功耗提供最大吞吐量,進而最大限度地提高資料中心的效率。而在生成式 AI 應用場景不斷增加之際,此顛覆性技術可望為整體社會帶來可觀效益。HBM4 是能加速洞察與創新突破的關鍵推動力,從而促進醫療保健、金融和交通運輸等不同領域的進步與變革。
美光科技資深副總裁暨雲端記憶體事業部門總經理 Raj Narasimhan 表示,美光 HBM4 具備卓越的效能、更高的頻寬和業界首屈一指的能源效率,證明美光在記憶體技術和產品方面的領導地位。在 HBM3E 所創下的重大里程碑基礎上,繼續以 HBM4 及強大 AI 記憶體和儲存解決方案組合引領創新。HBM4 生產時程與客戶下一代 AI 平台的準備進度緊密銜接,以確保無縫整合與適時擴大產量,滿足市場需求。
近 50 年來,美光不斷突破記憶體和儲存創新的界限。美光持續提供廣泛多元的解決方案,使資料轉化為智慧,推動從資料中心到邊緣裝置突破,加速 AI 發展。美光再次鞏固 AI 創新領域關鍵推手的地位,並在客戶開發最嚴苛解決方案時,證明為值得信賴的合作夥伴。美光 HBM4 預定 2026 年量產,配合客戶下代 AI 平台擴產進度。
(首圖來源:美光)






