AI未來不只有運算能力,記憶體也扮演關鍵角色,其面臨五大趨勢
科技產業資訊室(iKnow) - 友子 發表於 2026年4月14日

圖、AI未來不只有運算能力,記憶體也扮演關鍵角色,其面臨五大趨勢
隨著部署的AI系統數量不斷增加,模型規模和上下文也在不斷增長,這使得焦點從原始運算能力轉向了資料存取和傳輸到處理引擎的速度和效率。這種轉變使得記憶體成為決定AI系統整體效能和可擴展性的核心因素。以下五大趨勢或將助力更有效率的AI。
1.模型上下文不斷成長,對記憶體容量的需求也隨之增加
隨著大型語言模型(LLM)和代理AI的運作規模為了實現更高的準確率,並且需要處理不斷成長的資料集。為了支援互動式使用,需要更大的記憶體容量和更高的頻寬來即時產生結果。
例如:谷歌的 Gemini 1.5 現在支援高達一百萬個Token的上下文視窗,比起Gemini1.0的32,000 Token明顯多很多,這使得模型必須處理更長的對話並一次性處理更多資訊。隨著上下文視窗的成長,為了支援更有效率的AI,對記憶體容量的需求也隨之增加。
2.運算規模成長速度超過了資料傳輸速度
隨著晶片尺寸的增大和電晶體數量的增加,運算能力也不斷提升。但是,將資料導入晶片的能力卻沒有跟上,這主要是由於難以在晶片邊緣以高速和低功耗的方式傳輸資料。
一旦運算和資料傳輸之間的差距日益擴大,導致AI加速器需要等待記憶體提供資料的時間越來越長。這種AI記憶體缺口正日益限制系統效能,迫使業界研發速度更快的記憶體。
3.推理工作負載不斷增加記憶體需求
隨著代理AI在推理需求下進一步發展,愈來愈長的任務鏈將需要速度更快、容量更大、能效更高的記憶體,才能即時產生高品質的答案。
4.電源和供應限制凸顯記憶體的重要性
AI的能力未來將受到兩方面的限制:一是AI引擎所需的功耗,二是其大規模運送結果的效率。
記憶體是主要的功耗來源。研究表明,記憶體會佔用伺服器相當大一部分的功耗,而伺服器本身約佔資料中心總能耗的40%。
另外,許多公司宣布了加速AI基礎設施建設的計劃,這給半導體供應鏈帶來了壓力。導致HBM和DDR等關鍵AI記憶體出現短缺,價格也大幅上漲。供需失衡將影響部署計劃和時間表,使記憶體不僅成為效能的關鍵要素,而且成為公司策略方向和產業本身的關鍵要素。
5.系統架構正圍繞著記憶體演進
AI基礎設施的一項重大轉變是硬體針對AI工作負載的不同階段進行專門化配置。如今業界正朝著為每個階段客製化運算和記憶體資源的系統設計方向發展,以優化效能和成本。
例如:輝達的Rubin架構就是這趨勢的一個很好的例子。該系統在不同的處理器上處理這兩個階段,以提高效率和資源利用率。 Rubin CPX針對計算密集型的預填充階段進行了最佳化,並使用GDDR記憶體;而Rubin GPU則針對頻寬密集型的解碼階段構建,並使用HBM記憶體。
總之,這些趨勢反映了AI系統擴展方式的根本轉變。記憶體不再只是支撐基礎設施,它已成為決定系統性能、成本和能源效率的主要因素。AI的未來不僅取決於運算能力,還取決於處理器及其記憶體系統的協同設計。(1166字;圖1)
參考資料:
The Five Trends Driving Memory To The Forefront Of AI Scaling. Forbes, 2026/4/1
--------------------------------------------------------------------------------------------------------------------------------------------
【聲明】
1.科技產業資訊室刊載此文不代表同意其說法或描述,僅為提供更多訊息,也不構成任何投資建議。
2.著作權所有,非經本網站書面授權同意不得將本文以任何形式修改、複製、儲存、傳播或轉載,本中心保留一切法律追訴權利。
|