AI發展新趨勢:Meta和輝達正合作將GPU核心嵌入下一代HBM記憶體中
科技產業資訊室(iKnow) - 友子 發表於 2025年12月1日

圖、AI發展新趨勢:Meta和輝達正合作將GPU核心嵌入下一代HBM記憶體中
科技公司正在探索HBM設計的一項重大變革,旨在將GPU核心直接嵌入下一代HBM記憶體堆疊中。根據產業報告顯示,Meta和輝達正在評估「客製化HBM」架構,該架構將GPU核心整合到未來HBM元件的基礎晶片中,因此SK海力士和三星都正參與了早期討論。
一旦將GPU核心直接整合到HBM基底晶粒(HBM Base Die)中,即可降低資料傳輸延遲和功耗來提升AI GPU的效能和能源效率。這種下一代客製化HBM架構面臨巨大的技術挑戰,但有望在AI運算領域帶來變革性的進步。
HBM廣泛應用於輝達和超微的AI GPU,如今隨著下一代HBM4即將問世,HBM4E也緊隨其後持續發展中。憑藉其極高的記憶體頻寬,HBM非常適合AI應用和大量資料處理。
基底晶粒是負責記憶體與所有連接組件之間的通訊。 HBM的下一步發展方向是整合“控制器”,該控制器預計將於2026年應用於HBM4。業界希望HBM4能夠透過增加一個控制記憶體的半導體來提升效能和效率。
將GPU核心整合到HBM基底晶粒上被認為是領先HBM4控制器數個步驟的技術。對GPU和CPU而言,核心是能夠獨立進行運算的基本單元。例如,4核心GPU就擁有四個可以獨立運算的核心,因此核心越多,運算效能就越強。消費級遊戲GPU和CPU都遵循這項規律,而運算能力最強大的當屬最新的AI GPU。
然而,如果將GPU和HBM整合在同一晶片上,就可以將原本只在GPU中執行的運算功能分配到記憶體中,從而減少資料傳輸,降低GPU核心的負載。
對於半導體公司和科技巨頭來說,實現這一目標並非易事,但輝達、SK海力士、三星以及Meta等公司都希望將其應用於自身的AI基礎設施,因此,在未來的幾個月甚至幾年裡,我們期待看到這項技術取得長足發展。
從這裡可以看出,由於客製化HBM需要客戶參與晶片基底晶粒的設計,因此它變成了AI晶片廠商、記憶體供應商和雲端服務提供商之間的三方合作的關係。
但該設計仍面臨諸多挑戰,例如基於矽通孔(TSV)的堆疊晶片面積有限、供電限制以及如何冷卻基底晶粒內部運算密集型GPU邏輯等問題。
由於輝達的下一代Rubin Ultra AI GPU單顆功耗將高達 2300W,超微的未來Instinct MI450X也將消耗2300W的功率,因此GPU運算核心功耗極高,會產生大量熱量,如此巨大的功耗和熱負載顯然會帶來一些問題。
這項新技術或許能為整個產業帶來巨大的益處,但對於半導體晶圓代工廠來說,這無疑是一項艱鉅的任務。所以客製化HBM的發展趨勢,台積電將扮演絕對主導力量,至於三星和英特爾勢必也會積極參與其中。(1060字;圖1)
參考資料:
The next-gen HBM chips will combine both GPU and HBM for future AI chips from Meta and NVIDIA. Tweak Town, 2025/11/27
Next-Gen HBM Targets Embedded GPU Cores. Tech Power Up, 2025/11/27
--------------------------------------------------------------------------------------------------------------------------------------------
【聲明】
1.科技產業資訊室刊載此文不代表同意其說法或描述,僅為提供更多訊息,也不構成任何投資建議。
2.著作權所有,非經本網站書面授權同意不得將本文以任何形式修改、複製、儲存、傳播或轉載,本中心保留一切法律追訴權利。
|