︿
Top

LG家用機器人CLOiD首次亮相於CES 2026

瀏覽次數:193| 歡迎推文: facebook twitter wechat Linked

科技產業資訊室(iKnow) - 謝欣妤 發表於 2026年1月15日
facebook twitter wechat twitter

圖、LG家用機器人CLOiD首次亮相於CES 2026

在CES 2026開展前,LG Electronics於拉斯維加斯舉辦的展前活動LG World Premiere中宣布其最新的「AI in Action」策略。同時強調,該策略並非著眼於技術展示,而是以「讓 AI 真正走入日常生活」為核心目標,並呼應本屆活動主題「創新,懂你所想(Innovation in tune with you)」,藉此推動新一代智慧生活家電的應用落地。

這項AI in Action策略建立於三大核心之上,包含奠基於關鍵技術實力所打造的高品質裝置、可無縫運作的整合型生態系,以及將AI應用延伸至家庭以外的場域。同時,LG也強調以「情感智慧(Affectionte Intelligence)」為基礎,推動AI從單純被動理解使用者需求,轉化為能夠主動回應且具行動導向的智慧角色。

在CES 2026展會現場,LG展示了最新的家務機器人CLOiD。這款搭載AI與視覺感知能力的機器人,象徵著LG所提出的「Zero Labor Home」願景的一大進展,目標在於降低人們於日常家務中投入的體力與時間成本,重新定義智慧家庭的角色分工。

CLOiD機器人整合了LG先前推出的家庭管家機器人(Q9)和ThinQ智慧家電生態系,其結構設計可分為三個主要模組。頭部整合顯示器、鏡頭、感測器和揚聲器,作為人機互動與環境感知的核心;上半身與雙臂是採用七自由度(7 DOF)的機械結構,肩部、肘部和腕部可靈活旋轉,使其具備搬運重物與執行精細家務的能力;其底座則為智慧輪式移動設計,支援自動導航能力,可在家中自主移動。

在軟體與技術層面,LG CLOiD的核心系統由視覺語言模型(Vision Language Model,VLM)和視覺語言動作(Vision Language Action,VLA)所構成。這些模型皆經過長時間資料訓練,可將影像視覺輸入轉換成結構化的語意理解,並進一步將語音和視覺指令轉譯為具體行動,使機器人得以理解環境、辨識物件,並執行複雜的任務。

在實際展示情境中,CLOiD不但可自主從冰箱取出牛奶和製作烤麵包;而當家庭成員外出時,機器人則會接手家務,自動啟動洗衣流程,並於烘乾完成後進行衣物的摺疊與整理。這些操作顯示其跨設備協作的能力,也凸顯其能依據使用者生活節奏,精準理解情境並控制家電的實際應用潛力。

不過,LG 亦坦言 CLOiD 目前仍處於開發與概念驗證階段,尚未進入商用市場,相關上市時程與產品規格仍未對外公布。儘管如此,此次展示已顯示家用機器人正逐步從概念走向實際應用,也反映出 AI 技術正以「以使用者需求為中心」的方向持續演進。(882字;圖1)


參考資料:
LG 於2026 CES上發表「AI in Action」策略以情感智慧(Affectionate Intelligence)打造橫跨居家、移動與基礎設施的 AI 應用。LG Electronics,2026/1/1
LG Electronics Presents LG CLOiD Home Robot to Demonstrate “Zero Labor Home” at CES 2026. LG Electronics, 2026/1/4
I watched LG’s new home robot CLOiD do laundry but I have questions. Techcrunch, 2026/1/8


 

 
歡迎來粉絲團按讚!
--------------------------------------------------------------------------------------------------------------------------------------------
【聲明】
1.科技產業資訊室刊載此文不代表同意其說法或描述,僅為提供更多訊息,也不構成任何投資建議。
2.著作權所有,非經本網站書面授權同意不得將本文以任何形式修改、複製、儲存、傳播或轉載,本中心保留一切法律追訴權利。