日本《人工智慧相關法律》下的永續價值與企業責任
科技產業資訊室(iKnow) - 謝采燁 發佈於 2026年4月23日

圖、日本《人工智慧相關法律》下的永續價值與企業責任
隨著人工智慧(AI)技術的快速發展,其影響已由產業效率提升,擴展至社會治理、人權保障與國家競爭力等多重層面。在此趨勢下,日本亦逐步建立制度化的AI治理框架,其中《人工智慧相關法律》(人工知能(AI)に関連する技術の研究開発及び利用の推進に関する法律)成為重要政策基礎,明確指出AI技術應在促進經濟發展的同時,不忘顧及人權保障與社會信任藉由制度設計引導健全發展。
該法的核心理念在於,AI相關技術的研究開發與應用推動應以「人本導向」,確保科技創新不偏離社會價值。此一理念也與當前國際間積極推廣的「可信任AI(Trusted AI)」不謀而合,AI的價值無法僅以技術性能來衡量,必須在透明性、公平性與責任性的基礎上建構完善的風險管理與控制機制,可系統性辨識AI應用中的潛在風險並制定相應的治理策略,以確保AI系統符合倫理標準與法規要求。透過法律規範與政策引導,日本試圖建立出既能促進創新,又能有效管理風險的AI發展環境。
在企業應用層面,AI的導入已成為提升競爭力的重要手段。企業藉由資料分析、自動化決策與預測模型,能有效提升營運效率並創造新商業模式。然而,AI的應用亦可能出現演算法偏見、隱私侵害與決策不透明等問題,影響個人權益與社會信任,系統的決策或許直接影響個人就業、醫療或金融服務機會,若缺乏適當監管,將可能加劇社會不平等。《人工智慧相關法律》要求在推動AI應用時,必須同步建立風險管理與治理機制,確保技術使用符合倫理與法規要求。
從政策層面來看,AI對企業經營影響日益擴大,以及社會對企業責任與資訊透明度的期待提升,各國政府亦逐步建立AI治理框架以引導企業在創新與監管之間取得平衡。在美國,要求揭露AI相關風險的股東提案迅速增加,反映出市場對企業AI治理能力的重視,逐漸形成新的企業治理趨勢,其關注重點主要包括:經營層對AI風險的監督機制、人權風險的揭露、生成式AI可能帶來的假訊息與錯誤資訊風險,以及企業是否建立並公開透明性報告。此一趨勢預期將逐步擴散至日本乃至全球市場,對企業提出更高標準的要求,企業在導入AI技術時,除了強化內部風險控管外,亦需建立一致且具體的資訊揭露機制,主動向股東與社會說明AI應用的風險與對策。這些政策通常涵蓋倫理準則、風險評估機制及跨國合作等面向,目的在於建立可信任的AI生態系。
在AI時代下,企業追求創新與效率的同時也須正視其所帶來的風險與責任。防止因AI使用而導致人權侵害,已是企業不可迴避的基本責務。日本規定除《人工智慧相關法律》外企業尚需遵守聯合國發布之《工商業與人員指導原則》,兩者配合管制建立兼顧創新與責任的政策框架,方可推動AI技術朝向可信任與永續發展的方向前進。未來,能夠有效整合技術能力與倫理治理的國家與企業,將在全球競爭中占據關鍵優勢,成為推動永續價值的重要力量。(1124字;圖1)
參考資料:
人工知能関連技術の研究開発及び活用の推進に関する法律(AI法)。Cabinet Office,2025
AIと人権リスク~人権マネジメントにおけるAI関連リスクへの対応の必要性~KPMG,2026/3/13
【実例付き】AIのリスクとは?2026年最新の事例と企業が取るべき対策を解説。AX,2025/11/12
--------------------------------------------------------------------------------------------------------------------------------------------