前瞻技術脈動:AI與機器人技術(202537)
科技產業資訊室 - 技術發展藍圖研析團隊 發表於 2025年10月23日

圖、前瞻技術脈動:AI與機器人技術(202537)
人工智慧偏差檢測工具有望解決模型中的歧視問題
大語言模型(LLM)雖然功能強大,但也可能存在偏見而導致不公正的判斷。為了解決這個問題,加泰隆尼亞大學和盧森堡大學的研究團隊合力開發了一個名為LangBiTe的工具,可自動化測試LLM的偏見。該工具可以檢測出LLM在性別、種族、政治、宗教等方面是否存在偏見,並產出詳細的評估報告。LangBiTe還可進一步客製化測試,以滿足特定的需求和文化背景。
參考來源:AI bias detection tool promises to tackle discrimination in models. TechXplore, 2024/12/11
研究人員在保留或提升準確性的同時減少AI模型偏見
機器學習模型在處理訓練數據集中弱勢群體的預測時,可能因偏見導致錯誤。例如,若模型主要以男性患者數據訓練,對女性患者的預測可能不準確。平衡數據集雖可改善此問題,但需移除大量數據,可能損害模型的整體準確性。MIT研究人員開發出一種新技術,能識別並移除對弱勢群體預測失準影響最大的數據點,減少移除數據的數量,同時提升模型對弱勢群體的表現且保持整體準確性。該技術還能發現未標記數據中的隱藏偏見,並可結合其他方法提升機器學習模型的公平性。此方法應用廣泛,對於減少高風險情境中的AI偏見具重大潛力,如保障弱勢患者的診斷準確性。
--------------------------------------------------------------------------------------------------------------------------------------------
【聲明】
1.科技產業資訊室刊載此文不代表同意其說法或描述,僅為提供更多訊息,也不構成任何投資建議。
2.著作權所有,非經本網站書面授權同意不得將本文以任何形式修改、複製、儲存、傳播或轉載,本中心保留一切法律追訴權利。
|