︿
Top

前瞻技術脈動:AI與機器人技術(202537)

瀏覽次數:227| 歡迎推文: facebook twitter wechat Linked

科技產業資訊室 - 技術發展藍圖研析團隊 發表於 2025年10月23日
facebook twitter wechat twitter

圖、前瞻技術脈動:AI與機器人技術(202537)

人工智慧偏差檢測工具有望解決模型中的歧視問題
大語言模型(LLM)雖然功能強大,但也可能存在偏見而導致不公正的判斷。為了解決這個問題,加泰隆尼亞大學和盧森堡大學的研究團隊合力開發了一個名為LangBiTe的工具,可自動化測試LLM的偏見。該工具可以檢測出LLM在性別、種族、政治、宗教等方面是否存在偏見,並產出詳細的評估報告。LangBiTe還可進一步客製化測試,以滿足特定的需求和文化背景。
參考來源:AI bias detection tool promises to tackle discrimination in models. TechXplore, 2024/12/11


研究人員在保留或提升準確性的同時減少AI模型偏見
機器學習模型在處理訓練數據集中弱勢群體的預測時,可能因偏見導致錯誤。例如,若模型主要以男性患者數據訓練,對女性患者的預測可能不準確。平衡數據集雖可改善此問題,但需移除大量數據,可能損害模型的整體準確性。MIT研究人員開發出一種新技術,能識別並移除對弱勢群體預測失準影響最大的數據點,減少移除數據的數量,同時提升模型對弱勢群體的表現且保持整體準確性。該技術還能發現未標記數據中的隱藏偏見,並可結合其他方法提升機器學習模型的公平性。此方法應用廣泛,對於減少高風險情境中的AI偏見具重大潛力,如保障弱勢患者的診斷準確性。
參考來源:Researchers reduce bias in AI models while preserving or improving accuracy. MIT News, 2024/12/11

揭密「黑盒子」:科學家揭露人工智慧的隱藏思維
九州大學的研究團隊發展了一種基於k*分佈方法的新工具,能保留高維數據的完整資訊,準確地揭露神經網路如何對數據進行分組和分類。此方法會為每個數據點分配一個k*值,表示該數據點與最近不相關數據的距離,以呈現分類質量的詳細視圖。研究顯示,數據可以被分為緊密聚集、分散破裂或相互重疊的形式,這些排列影響分類的準確性和錯誤風險。這項技術將幫助改進AI的可靠性,尤其是在醫療診斷和自動駕駛等對精度要求極高的應用中。(685字;圖1)
參考來源:Unlocking the 'black box': Scientists reveal AI's hidden thoughts. TechXplore. 2024/12/12


 

 
歡迎來粉絲團按讚!
--------------------------------------------------------------------------------------------------------------------------------------------
【聲明】
1.科技產業資訊室刊載此文不代表同意其說法或描述,僅為提供更多訊息,也不構成任何投資建議。
2.著作權所有,非經本網站書面授權同意不得將本文以任何形式修改、複製、儲存、傳播或轉載,本中心保留一切法律追訴權利。