制度化AI監査:邁向可信任的人工智慧治理之路
科技產業資訊室(iKnow) - 謝采燁 發表於 2025年7月25日

圖、制度化AI監査:邁向可信任的人工智慧治理之路
隨著人工智慧(AI)技術迅速滲透至金融、醫療、教育等多元領域,AI系統對社會運作及個人生活的影響力不斷擴大。然而,單靠企業或開發者自行制定的倫理原則與自律規範,仍不足以充分應對相關風險、資料隱私、系統安全等複雜風險。如何確保AI系統在創新與效率之外,兼顧透明、公平與安全,成為當前治理討論的核心課題。
針對此一問題,東京大學未來願景研究中心發布政策建議報告《邁向有助於AI治理的AI監査實踐》(AIガバナンスに資するAI監査の実践に向けて),旨在提出制度化AI監査的必要性與實踐方針。
報告指出,AI監査的討論以下列面向展開:
- 首先是監査的必要性, AI 監査在企業徵才時,能提升應聘者信任與企業聲譽,在人才招聘 AI 會涉及應聘者個資蒐集這種高風險應用中尤為重要。歐盟 AI 法規草案要求此類系統提供方進行事前合規性評估,未來AI監査將成為法律必要,更是提升AI服務可信度、促進產業與社會建立信任的基礎。
- 其次為立證命題,也就是實施AI監察時的主題,其核心主題涵蓋公平性(避免演算法偏見)、透明性(模型可解釋與結果可追溯)、安全性(防止誤判與危害)、隱私保護與資訊安全等項目,AI 監査的評估重點不僅侷限於判斷結果的精度,還可能涵蓋隱私等議題,究竟哪些項目應列為立證命題,除了需要與受監査企業協商外,亦需回應社會輿論與公共價值的需求。
- 第三是監査對象,可分為兩者,針對實際運行的各個 AI 服務或系統本身進行稽核,及針對提供 AI 服務或系統的組織所實施的內部控制進行稽核。前者的稽核對象包括服務、系統、模型及程式本身;後者則針對組織內的治理架構、管理流程、各類規範以及思考鏈等進行稽核。由於兩者在稽核觀點、方法及程序上存在顯著差異,若在未事先明確特定並達成共識的情況下實施稽核,可能導致稽核結果無法符合相關利害關係人的預期,但在實際進行稽核時,兩者仍需結合審視,方能全面掌握系統風險。
然而,實施AI監査並非易事,報告提出三項政策建議:
- 建立AI監査制度框架,國際上如歐盟《AI法規草案》已凸顯制度設計的重要性,日本也急需開展討論,制度的規劃需考量規劃費用分擔機制、監査時機、國際協調性等,當務之急是制定標準化的監査基準與法律規範,以明確監査範圍與責任分工;
- 培育跨域監査專業人才,AI 監査是一項高度複雜的專業工作,要求從業者結合多重專業背景:不僅要精通監査理論與受審企業所在行業運作模式、具備全面的 IT 技術能力,還需掌握 AI 特有的技術知識,並對倫理、文化及法規有深入理解,方能勝任其跨領域的挑戰。同時,報告指出雖然國內外已有各種針對監査人員的資格與認證制度,但是否需要專門為 AI 監査人(包含個人與組織)設立新的資格要件制度,仍有待進一步討論與研究;
- 動態更新監査方法,AI 技術與服務快速革新,帶來新的風險與監査議題,為避免制度落後,AI 監査的制度、標準與方法需持續更新,並建立能主動因應技術發展的更新機制,兼顧國際互操作性與更新頻率。隨技術與應用情境的演進,特別是生成式AI的興起,有及時調整監査基準與程序之必要性。
--------------------------------------------------------------------------------------------------------------------------------------------
【聲明】
1.科技產業資訊室刊載此文不代表同意其說法或描述,僅為提供更多訊息,也不構成任何投資建議。
2.著作權所有,非經本網站書面授權同意不得將本文以任何形式修改、複製、儲存、傳播或轉載,本中心保留一切法律追訴權利。
|