︿
Top

前瞻技術脈動:AI與機器人技術(202547)

瀏覽次數:199| 歡迎推文: facebook twitter wechat Linked

科技產業資訊室(iKnow) - 技術發展藍圖研析團隊 發表於 2025年12月26日
facebook twitter wechat twitter

圖、前瞻技術脈動:AI與機器人技術(202547)

新款AI模型在檢測有害網路留言方面達到87%的準確率
來自澳洲與孟加拉的研究團隊開發了一款AI模型,有87%的機率能準確地識別社群媒體上的有害留言。這款模型透過機器學習技術,在無需人工標記的情況下,自動區分有害與無害內容。研究團隊測試了三種機器學習模型,包括支援向量機(SVM)和隨機梯度下降(SGD)模型,最終優化後的SVM模型表現最佳,準確率達87.6%,明顯優於基準SVM(69.9%)與SGD模型(83.4%)。這項技術可協助社群媒體平台自動過濾不當言論,減少網路霸凌,保護使用者心理健康。未來研究團隊計畫整合深度學習技術,擴展至更多語言,並與社群媒體公司合作,將該技術應用於實際平台。       
參考資料:New AI model achieves 87% accuracy in detecting toxic online comments. TechXplore, 2025/3/4


透過類似CAPTCHA的即時物理互動驗證技術來對抗深偽  
隨著生成式AI技術的發展,深偽技術讓不肖人士能輕易竊取個人影像並生成虛假內容。為解決此問題,卡內基美隆大學(Carnegie Mellon University)與麻省理工學院(MIT)的研究團隊,合作開發了CHARCHA(電腦人類評估系統),這是一種即時物理互動驗證技術,類似CAPTCHA能偵測線上使用者是否真實人類,透過要求使用者執行隨機動作,如轉頭、眨眼或微笑,以確保影像為真人而非AI生成。這項驗證過程需約90秒,並透過AI分析微小動作,確保使用者真實存在,避免預錄影片或靜態照片冒充身份。   
參考資料:Combating deepfakes with CAPTCHA-like verification that uses real-time physical interactions. TechXplore, 2025/3/5


新的人工智慧防禦方法保護模型免受對抗性攻擊   
人工智慧模型模仿人腦的神經網路,推動了各科學領域的重大突破,但也容易受到對抗性攻擊,例如對輸入影像進行微小且幾乎不可見的修改,導致模型產生錯誤的結果。為解決這一問題,洛斯阿拉莫斯國家實驗室(Los Alamos National Laboratory)的研究人員開發了低秩迭代擴散(LoRID)方法,結合去噪擴散過程和張量分解技術,有效清除輸入資料中的對抗性干擾。在多項基準資料集上的測試結果顯示,LoRID在抵禦對抗性攻擊方面達到了前所未有的準確性,提升了人工智慧系統的安全性和可靠性。(717字;圖1)      
參考資料:New AI defense method shields models from adversarial attacks. TechXplore, 2025/3/6


 

 
歡迎來粉絲團按讚!
--------------------------------------------------------------------------------------------------------------------------------------------
【聲明】
1.科技產業資訊室刊載此文不代表同意其說法或描述,僅為提供更多訊息,也不構成任何投資建議。
2.著作權所有,非經本網站書面授權同意不得將本文以任何形式修改、複製、儲存、傳播或轉載,本中心保留一切法律追訴權利。