從生成式AI到自律型AI:多代理時代的基盤技術與治理挑戰
科技產業資訊室(iKnow) - 謝采燁 發表於 2026年2月26日

圖、從生成式AI到自律型AI:多代理時代的基盤技術與治理挑戰
生成式人工智慧快速普及與技術能力持續躍升,人類社會正邁向多數AI與人類共同存在、協作運作的「人類・AI共生社會」,日本科學技術振興機構(JST)研究開發戰略中心(CRDS)舉辦之「人類・AI共生社會之基礎技術」俯瞰研討會與工作坊成果報告,系統性盤點實現人與AI共生所需的基盤技術與研究課題。CRDS指出從ChatGPT問世以來,生成AI從大型通用模型發展到可客製化的專用AI,未來將出現大量多樣化AI代理人(AI agents)並存的多代理社會。在此社會中,人與AI、人與人、AI與AI之間將形成高度複雜的協作關係,帶來前所未有的機會與風險。
首先從歷史脈絡回顧AI發展,過去七十年屬於「道具型AI」時代,強調工具屬性與精度優化;而生成AI的出現標誌著向「自律型AI」過渡的開端,自律型AI不僅回應指令,更能理解情境、預測需求並主動行動。此轉型意味著未來的AI將成為具備持續目標導向行為能力的行動者,能在多層次目標結構中動態調整策略,並與人類形成長期信任關係,自律型AI時代真正關鍵在於「信任」與「協働」。
在理論層面,CRDS彙整多項與共生相關的研究視角,包括多代理系統設計、BDI(Belief-Desire-Intention)模型、意圖共享與Commitment理論、心智理論(Theory of Mind)、擬人化機制、意圖立場(Intentional Stance)以及人機互動(HRI)研究。這些理論共同指出,人類傾向以「理解意圖」的方式解讀他者行為,因此共生AI必須能被人類視為具備目標與心智狀態的存在。換言之,AI不僅要能理解人類,也要讓人類能推測AI的內在狀態,形成所謂「共通基盤」(Common Ground)。
深入探討Human-Machine Teaming(HMT)框架,本報告將人機協作分為五種類型,包括Human Supervisor、Human Mentor、Peer、Machine Mentor與Machine Supervisor等模式,在不同模式下,人與AI在任務執行與決策權重上有所差異。此分類有助於分析各種應用場景中信任、治理、效能與責任分配的問題,隨著AI能力提升團隊角色可能動態轉換,有必要建立持續的信任校準與責任機制。
技術進步的同時也時常伴隨著風險,多代理社會可能產生系統性風險,例如AI間協力失控、演算法談合、價值觀偏差擴散或社會分斷加劇。為此需同時關注倫理、法律與社會影響(ELSI),並從機制設計層面建構可防止惡意行為與系統崩潰的制度安排,單純將價值觀植入個別AI並不足夠,更重要的是設計能在多代理互動中產生正向創發的社會結構。
此外,生成式AI的黑箱特性亦被視為重要課題,工作坊與會專家指出,未來研究不能僅將大型語言模型作為模組嵌入系統,而應深入理解其內部原理、限制與可改良方向。同時,還需發展具備時間感知、身體性、環境適應與多模態感知能力的整合型AI架構,使其能真正融入實體與虛擬空間。
現有 AI 在處理意外情況與建立信任方面仍有局限,未來應以使用者需求為核心,設計可解釋、可協作的 AI 系統,並在像醫療和客服等領域中發揮最大效益,更能促進更高品質的人機互動與廣泛社會利益。人類與AI共生社會並非技術自然演進的結果,而是需經由價值選擇與制度設計所塑造,在創新、信任、治理與教育並進的前提下,人類才能在多代理AI社會中維持主體性,並透過與AI的共助,拓展自身能力邊界。(1201字)
參考資料:
人・AI 共生社会のための基盤技術。CRDS,2025/3
AI と人間の共存:人間中心の人工知能の未来。Appier,2026
--------------------------------------------------------------------------------------------------------------------------------------------
【聲明】
1.科技產業資訊室刊載此文不代表同意其說法或描述,僅為提供更多訊息,也不構成任何投資建議。
2.著作權所有,非經本網站書面授權同意不得將本文以任何形式修改、複製、儲存、傳播或轉載,本中心保留一切法律追訴權利。
|