圖、邁向民主價值導向的國際治理:東京大學未來創新研究中心提出AI責任部署政策建議
隨著生成式人工智慧的快速普及,AI技術已全面滲透至公共治理、企業決策及日常生活。然而,這種技術發展的加速度也帶來新的挑戰,包括資訊不透明、偏誤判斷、隱私侵犯以及潛在的社會不平等。有鑑於此,東京大學未來創新研究中心(Institute for Future Initiatives, IFI)發布了政策建議報告《Towards Responsible AI Deployment》,呼籲在AI的開發與應用中建立更為負責與前瞻的治理框架,並以G7廣島AI流程(広島AIプロセス)為契機,提出一套兼顧創新活力與風險管理的治理策略。
此政策建議是為響應 2023年5月G7廣島高峰會提出之廣島AI流程,旨在制訂一套「以前瞻治理與民主價值為核心」的國際AI框架標準,處理技術迅速擴大所帶來的倫理與社會挑戰,這份AI政策框架強調多利益關係者參與、制度間互操作性,以及既有法規與人工智慧創新間的平衡,確保創新動能與人權、民主價值共存,並為不同國家法規提供共通參照基礎。報告指出,當前AI技術尤其是生成式AI的廣泛應用,已顯著改變資訊傳播、生產力工具與社會互動模式,同時也加劇了資訊錯誤、倫理偏差與技術濫用的風險。IFI強調,AI治理不能僅由企業或政府單一主導,而必須納入多方利害關係人共同參與,才能在快速變動的科技環境下保持制度的彈性與正當性。
三大核心政策建議
報告提出三大核心政策建議,為建立全球適用的 AI 治理體系奠定基礎:
一、建立多利益相關者論壇
AI 應用受限於現行制度與不明確監管,過度預防性管制恐阻礙創新並引發市場寡占,需兼顧安全、教育與制度調和。報告建議成立跨部門、多方參與的常設性平台,讓政府、企業、學術界及公民社會得以協商 AI 的風險管理與規範制定,確保政策能反映多元價值並及時回應新興挑戰。
二、推動治理框架的互操作性
面對各國制度與法規分化的現狀,報告主張建立可兼容的標準與制度,應建立事前檢討與多方協商機制,必要時制定新法,並以透明與敏捷治理降低門檻、促進創新。避免治理碎片化造成的漏洞與衝突。同時,針對弱勢群體與新興應用場景,應增設專門保障措施,以確保 AI 發展不致加劇社會不平等。
三、明確責任與監督機制
--------------------------------------------------------------------------------------------------------------------------------------------