美光 12 層堆疊 36GB HBM4 已送樣,2026 年量產

作者 | 發布日期 2025 年 06 月 12 日 14:00 | 分類 AI 人工智慧 , 半導體 , 記憶體 line share Linkedin share follow us in feedly line share
Loading...
美光 12 層堆疊 36GB HBM4 已送樣,2026 年量產

記憶體大廠美光表示,資料中心對 AI 訓練與推論工作執行需求持續升溫,高效能記憶體重要性達歷史新高。美光 12 日宣布將 12 層堆疊的 36GB HBM4 送樣給多家主要客戶。

美光表示,此里程碑再次擴大美光 AI 記憶體效能和能源效率方面的領導地位。憑藉成熟 1β (1-beta) DRAM 製程、經驗證 12 層堆疊先進封裝及功能強大記憶體內建自我測試 (MBIST) 功能,美光 HBM4 為開發下代 AI 平台的客戶和合作夥伴提供無縫整合的解決方案。

美光指出,HBM4 記憶體有 2048 位元介面,每個記憶體堆疊的傳輸速率超過 2.0TB/s,效能較前一代產品提升逾 60%。這樣的擴展介面有助於實現高速通訊和高傳輸量設計,進而提高大型語言模型和思路鏈推理系統的推論效能。簡而言之,HBM4 將使 AI 加速器具備更快的反應速度與更高效的推理能力。

此外,延續美光前一代 HBM3E 記憶體曾在業界樹立無與倫比的 HBM 能源效率新標竿,HBM4 的能源效率再提升逾兩成,展現了更進一步的技術突破。這項進展能以最低功耗提供最大吞吐量,進而最大限度地提高資料中心的效率。而在生成式 AI 應用場景不斷增加之際,此顛覆性技術可望為整體社會帶來可觀效益。HBM4 是能加速洞察與創新突破的關鍵推動力,從而促進醫療保健、金融和交通運輸等不同領域的進步與變革。

美光科技資深副總裁暨雲端記憶體事業部門總經理 Raj Narasimhan 表示,美光 HBM4 具備卓越的效能、更高的頻寬和業界首屈一指的能源效率,證明美光在記憶體技術和產品方面的領導地位。在 HBM3E 所創下的重大里程碑基礎上,繼續以 HBM4 及強大 AI 記憶體和儲存解決方案組合引領創新。HBM4 生產時程與客戶下一代 AI 平台的準備進度緊密銜接,以確保無縫整合與適時擴大產量,滿足市場需求。

近 50 年來,美光不斷突破記憶體和儲存創新的界限。美光持續提供廣泛多元的解決方案,使資料轉化為智慧,推動從資料中心到邊緣裝置突破,加速 AI 發展。美光再次鞏固 AI 創新領域關鍵推手的地位,並在客戶開發最嚴苛解決方案時,證明為值得信賴的合作夥伴。美光 HBM4 預定 2026 年量產,配合客戶下代 AI 平台擴產進度。

(首圖來源:美光)

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》