亞馬遜採用「Nvidia Inside」和自行研發雙軌制AI策略,以最強且彈性AI運算鞏固雲端霸主
科技產業資訊室(iKnow) - 茋郁 發表於 2025年12月8日

圖、亞馬遜採用「Nvidia Inside」和自行研發雙軌制AI策略,以最強且彈性AI運算鞏固雲端霸主
在AWS re:Invent大會上,輝達公司和亞馬遜旗下的亞馬遜網路服務(AWS)進一步深化了雙方長期的合作夥伴關係,在互連技術、雲端基礎設施和AI軟體領域實現了新的整合。
首先,AWS預告了其Trainium4加速器,該加速器將成為首批採用輝達NVLink Fusion互連技術實現晶片間通訊的產品之一。
亞馬遜聲稱,這項技術將使其Trainium4加速器、Graviton CPU和EFA網路技術能夠在輝達MGX機架上無縫通訊。
目前,輝達第五代 NVLink 互連架構每個 GPU 最高支援 1.8 TB/s 的頻寬(單向 900 GB/s),但該公司預計在明年將其頻寬翻倍至 3.6 TB/s。
除了輝達的互連技術之外,其他細節尚不清楚。據稱,新晶片的 FP8 浮點運算效能將提升 3 倍,FP4 浮點運算效能將提升 6 倍,記憶體頻寬將提升 4 倍。但亞馬遜尚未說明這些效能提升是指單一晶片還是其 UltraServer 機架系統。
假設它採用的是機架式系統(就像 Trainium3 一樣),這意味著AWS的 Trainium4 UltraServer 可以提供高達 2 exaFLOPS 的密集 FP4 效能和 2.8 PB/s 的記憶體頻寬。
簡單來說,亞馬遜正圍繞著這項統一架構建構其未來的雲端規模AI平台,並利用 NVLink Fusion 和輝達的 MGX 機架架構來提升效能。
AWS 還擴大了對輝達最新Blackwell GPU的佈署,這些 GPU 為其全新的 AWS AI Factory 提供支援。 AWS AI Factory 是專用的主權AI雲端,允許全球企業在本地運行尖端AI工作負載,同時保持對其數據的完全控制,以滿足日益嚴格的監管要求。
輝達表示,這種方法透過向每家公司和每個國家/地區提供高階運算基礎設施,加速了「AI產業革命」。
除了硬體之外,輝達還在AWS中嵌入了更多軟體生態系統。輝達Nemotron開放模式現已在 Amazon Bedrock 上提供,可用於生產規模的生成式AI應用。
AWS 也是第一家提供基於輝達GPU的無伺服器向量索引的主要雲端供應商,這項升級顯著加快了檢索增強生成和其他智慧體 AI 技術中非結構化資料的處理速度。
此次合作也延伸至實體AI領域。輝達的Cosmos世界模型和Isaac機器人工具現在可在 AWS 服務上原生運行,幫助機器人公司大規模地模擬、訓練和驗證現實世界的自動化系統。
總之,亞馬遜與谷歌不同之處,在於亞馬遜即使自己發展晶片,其仍根據市場需求,執行雙軌制AI策略,使其在更廣泛的平台競爭中保持核心競爭力。也就是,亞馬遜可利用「Nvidia Inside」滿足買家對高階硬體需求,亦可Trainium客製化晶片滿足低成本方案的買家,讓亞馬遜更能掌控AI基礎設施的利潤空間。這是聰明的一步,即可兼顧亞馬遜和輝達的雙方利益,更鞏固了輝達在晶片領域的領先地位,壓低了谷歌與Meta合作的氣勢。因此,未來AI競爭將是拉攏夥伴,創造雙贏的局面啊!(1188字;圖1)
參考資料:
Amazon Is Putting Nvidia Tech Inside Its New AI Chips. Benzinga, 2025/12/2
Amazon primed to fuse Nvidia's NVLink into 4th-gen Trainium accelerators. The Register, 2025/12/2
--------------------------------------------------------------------------------------------------------------------------------------------
【聲明】
1.科技產業資訊室刊載此文不代表同意其說法或描述,僅為提供更多訊息,也不構成任何投資建議。
2.著作權所有,非經本網站書面授權同意不得將本文以任何形式修改、複製、儲存、傳播或轉載,本中心保留一切法律追訴權利。
|