︿
Top

AI推理讓英特爾和超微CPU翻身,兩家聯手推進APX指令,強化x86架構在AI時代的效能

瀏覽次數:136| 歡迎推文: facebook twitter wechat Linked

科技產業資訊室(iKnow) - 茋郁 發表於 2026年5月11日
facebook twitter wechat twitter

圖、AI推理讓英特爾和超微CPU翻身,兩家聯手推進APX指令,強化x86架構在AI時代的效能

英特爾和超微正利用AI運算從訓練到推理的重大轉變,使得CPU的重要性與GPU並駕齊驅。

英特爾在伺服器CPU領域的統治地位以及不斷成長的客製化ASIC銷售額,使其也乘著AI翅膀再一次展翅高昂。至於超微,其CPU-GPU一體化策略和資料中心業務的成長,使其成為AI基礎設施領域唯一能與輝達匹敵的全端競爭對手。

CPU正在成為AI時代不可或缺的基礎。

Deloitte估計,到2026年,推理工作負載將消耗所有AI運算能力的三分之二,高於去年的50%。這將催生對更多適用於推理的 AI 晶片的需求。這對英特爾無疑是個好消息。事實上,在AI推理時代,英特爾超越輝達和博通等公司也不足為奇。

Creative Strategies分析師認為,超微同時擁有CPU和GPU,這使得其能夠對訓練和推理系統進行協同設計優化,這在市場上很少見。超微第五代EPYC處理器在雲端和邊緣部署領域正獲得越來越多的市場佔有率,預計下一季CPU營收將大幅成長。這種一體化策略使超微能夠靈活地在不同產品線之間調配資源,進而降低AI專案延期所帶來的風險。

為了進一步鞏固x86架構,英特爾和超微將共同製定x86 CPU的APX(Advanced Performance Extensions)標準,將通用暫存器數量翻倍至32個,並引入三操作數指令。此次合作將減少指令集碎片化,提高效率,並在不大幅增加功耗或晶片尺寸的情況下提升效能,使Ryzen和Core Ultra處理器均受益。

英特爾最初在2023年7月宣布了APX。以往,x86-64標準規定通用暫存器(GPR)的數量為16個。在CPU中,暫存器是處理器內部的小型高速儲存單元,用於在處理過程中暫時保存資料。資料最終會從記憶體和快取中取出並儲存到這些暫存器中以進行執行。

透過將GPR的數量從16個增加到32個,CPU可以同時儲存更多的資料。英特爾聲稱,這將減少10%的加載操作和20%的儲存操作。 APX還引入了三操作數指令,使CPU能夠在不覆蓋原始資料的情況下執行計算。英特爾表示,這種翻倍設計可以在不顯著增加晶片尺寸或功耗的情況下提升效能。

其實,在2026年4月30日,英特爾與超微才剛聯合發布了ACE(AI Compute Extensions)技術白皮書,將定位為x86架構的「標準矩陣加速架構」,支援INT8、FP8、BF16等主流AI資料格式,並相容於AVX10指令集。

總之,英特爾和超微想利用這一次AI推理的機會,讓x86架構影響力不斷擴張,成為對抗Arm和RSIC-V的利器!(1041字;圖1)


參考資料:
Not Nvidia. Not Broadcom. Intel is going to be the biggest winner of the artificial intelligence (AI) inference era. The Motley Fool, 2026/5/6
Intel and AMD gain ground as AI inference demand surges. Msn.com, 2026/5/7
Intel and AMD join hands to standardize APX extensions for x86 CPUs to improve efficiency and end ISA fragmentation. Tweak Town, 2026/5/5


 

 
歡迎來粉絲團按讚!
--------------------------------------------------------------------------------------------------------------------------------------------
【聲明】
1.科技產業資訊室刊載此文不代表同意其說法或描述,僅為提供更多訊息,也不構成任何投資建議。
2.著作權所有,非經本網站書面授權同意不得將本文以任何形式修改、複製、儲存、傳播或轉載,本中心保留一切法律追訴權利。