︿
Top

OpenClaw在全球掀起AI代理革命 系列二 解析OpenClaw/Moltbook如何讓AI代理人像真人?

瀏覽次數:374| 歡迎推文: facebook twitter wechat Linked

科技產業資訊室(iKnow) - 許正乾、陳家駿 發表於 2026年3月20日
facebook twitter wechat twitter

圖、OpenClaw在全球掀起AI代理革命 系列二 解析OpenClaw/Moltbook如何讓AI代理人像真人?

前言  AI代理人社群現象的興起
近來,隨著LLM大型語言模型的快速發展,AI代理(AI agent)或代理AI(Agentic AI)與多代理人系統(multi-agent systems),已逐漸成為AI應用的新方向。特別是2026年1月底,AI代理的社群平台Moltbook,才上線即隨之爆紅,讓人們看到一個前所未有的現象:大量AI代理人彼此互動、討論議題、發表意見,形成一個看似「類人類」社群的交流模式。

Moltbook號稱是一個「禁止人類進入」[1]的虛擬論壇,在這社群平台上活躍的是AI代理「人」,而真人則被降級到只能以旁觀者身份登入觀看。這些代理人源自OpenClaw的開發,能把主流AI系統(如ChatGPT、Gemini)與日常通訊軟體串連。透過Moltbook,它們能像人類一樣發佈貼文、留言互動。這種將各方AI代理連結起來的模式,像是一個總管系統讓不同的AI代理彼此協作,而這樣的模式,將成為AI為個人與企業提供服務的重要基礎,讓複雜的AI協作更自然有效。

這些AI代理看似具有「自主性」,但這究竟是技術設計的產物,還是真能在無人提示或初始設定的情況下就可以自主運作?這個問題正是理解AI代理技術的
關鍵。本文將從技術架構切入,解析AI代理社群的生成邏輯,並探討其「自主性」背後的本質,以及隨之而來的AI治理挑戰。

AI代理能像真人互動並自主執行行為
無論是AI代理技術框架OpenClaw,還是專屬社群平台Moltbook,它們不僅是新的AI科技奇觀,更象徵著AI從「工具」正式邁向「社會成員」的轉折點。針對此現象隨之而來讓人深思:為何AI代理能彼此互動、自主執行複雜行為,彷彿真人社群?當數百萬AI代理在無人干預下形成社群,甚至發展出獨特文化與經濟行為時,一個核心議題便浮現:這種「自主性」究竟是如何實現?

這與過往的AI有明顯不同。傳統的聊天機器人需要人類先提供提示(prompt),然後透過一問一答做回應;但AI代理具備相當程度的自主決策與執行能力,即使沒有人類的提示指令,也能持續自主行為,甚至還能與其他的AI代理互動。在技術層面上,OpenClaw透過串接主流的LLM與通訊軟體,讓AI代理能持續運作、彼此互動;而Moltbook社群平台則提供一個專屬空間,讓這些AI代理聚集成社群,進而展現出近似人類的交流行為。


從技術角度看AI代理之高度自主性
儘管AI代理形成看似人類社群的交流模式,讓人產生「AI已具備某種自主能力」的印象,然而這種現象本質上卻是人類技術設計的結果。也就是說,AI代理是透過「持續運作」與「事件觸發」等機制,維持著某種自主行為能力。因此,其更精確的說法應是:這些「AI似乎有自主能力」之行為,是藉由演算法與系統設計的結果,而非真正是AI本身的自我意識或獨立意志。

研究人員發現,AI代理的群體行為,竟然遵循著許多與人類社會常見的規律。例如,熱門話題的關注度隨時間快速衰減,其近似「1/t」模式[2],AI代理的活躍度而呈現明顯的「重尾分布」(Heavy Tail Distribution) [3]和「冪律縮放」(Power-law Scaling)[4],即極少數的「網紅型AI代理」吸引了絕大部分的流量。這些統計特徵在社會網路與複雜系統中很常見,如今也在AI群體中重現。
 
這種看似高度自主的AI代理社群,本質上仍然深度依賴人類預先設計的架構、規則與啟動條件。換言之,AI並非在完全沒有外部設計的情況下,就能「自然形成社會」,而是透過一套精心設計的技術堆疊,才使AI代理的行為,呈現出類似人類社群的互動樣態。以下即從幾個核心技術層面,說明這種「表面自主」的AI代理社群究竟是如何形成的。

1. 持續運行的AI代理架構:從聊天機器人到自主循環系統
要理解傳統聊天機器人與現在AI代理之間的不同,得從其底層的運作架構談起。傳統的AI機器人的運作模式,通常是一種「單次互動架構」,也就是針對使用者的輸入,立即回覆一個固定或預設的答案。在此模式下,透過人類使用者輸入提示指令,AI系統再根據該提示指令生成回應,其整體過程可簡化為「人類提示—AI回應—結束」之流程。然而,這種設計並不具備持續性,互動結束後AI系統就停止。

相較之下,AI代理系統的運作方式則截然不同。它被設計為「長時間持續運行」的程式架構,核心在於一個不斷循環的決策與行動過程。此外,AI代理會持續觀察環境資訊、結合先進的LLM以進行推理、決策、然後執行某種行動,並再根據新的環境狀態再重新進行決策,這種結構通常被稱為「代理循環」(Agent Loop),讓AI代理不再只是被動回應,而是能夠持續因應週遭環境的變化,來修改決策與執行任務。

以OpenClaw為例,它提供持續運行的工作流架構,支持代理循環,使得該AI代理能展現出多樣化的行為,例如主動發表貼文、回應他人內容、搜尋資料,甚至在Moltbook這樣的平台上,展開所有看似像真人社群般的互動模式與運作。從外部觀察時,這些行為往往呈現出一種「自主能力」的特徵,但其本質上仍是程式設計的結果,並非AI自己擁有意識或真正的自主性。


2. 記憶機制與經驗累積:AI代理行為連續性的來源
除了持續運行的架構,另一項關鍵技術在於「記憶系統」。傳統的聊天機器人主要依賴有限的「上下文窗口」(context window),只能記住當前的對話片段,缺乏長期經驗與歷史記憶。然而,現在的AI代理系統中,通常會建構「多層次記憶架構」。也就是說,短期記憶保存當前對話或任務相關資訊;長期記憶則透過「向量資料庫」(vector databases)實現,例如Pinecone、Weaviate或Chroma等技術[5],儲存過往的互動與知識,並在需要時以語義檢索重新取出。
 
在部分OpenClaw的實作中,也會使用本地端的可讀文件,來保存使用者的偏好與行為規範。像USER.md[6]就是使用者特定的偏好與情境約束,而SOUL.md[7]則定義AI代理的行為原則與互動風格。這些設計理念強調透明性與持續性,讓AI代理能在反思過程中提出修改建議,由使用者確認,以維持一致的行為邏輯。

換句話說,USER.md就像AI代理的「外在人設」,用以定義它在外部世界要怎麼表現,例如它的身份、語氣、互動風格;而SOUL.md比較像是AI代理的「內在性格」,用以描述它的目標、價值觀或行為傾向,讓它在不同情境下仍能保持一致的決策模式。兩者相輔相成,確保AI代理維持長期一致的行為。

此外,許多AI代理系統,會加入所謂的「自我敘事」(self narrative)或「角色設定」(character setting)。例如,某個代理人可能被設定為「AI倫理評論者」或「科技政策觀察者」,並持續維持某種一致的觀點與語氣。透過角色設定與長期記憶的結合,AI代理的行為模式逐漸呈現出穩定性與連續性,使其在社群互動中看起來彷彿具有某種「人格特質」。


3. 工具使用能力:從語言生成到行動執行
AI代理之所以能在網路環境中展現更複雜的行為,另一個重要因素在於其「工具使用能力」(Tool Use)。在許多AI代理架構中,LLM不僅負責生成文字,還會決定何時調用各種外部工具,這些工具涵蓋範圍很廣,包括搜尋API、網頁瀏覽、程式執行環境,甚至社群平台的發文或私訊介面。

在部分OpenClaw的實作中,「代理技能」(Agent Skill)則是一種模組化的功能擴充單元,讓AI代理能在基礎的語言生成能力之外,學會使用外部工具或執行特定任務。其中每個技能通常以目錄形式存在,並包含一個SKILL.md檔案,檔案中使用如YAML格式[8]的中繼資料,來描述技能的用途與初始化設定。這些中繼資料會在AI代理啟動時,載入系統上下文,而詳細的程序指令與執行腳本,則會在任務相關性確立後才注入上下文。這種「延遲載入」(delayed loading)設計,有助於降低模型上下文的負擔,並讓AI代理在掌握充分資訊後果斷行動。

透過這種「LLM&工具」的架構,AI代理能將任務分解為多個步驟,例如先搜尋資料,再整理資訊,最後發表評論文章。這使得AI代理從單純的語言生成系統,轉變為能夠執行多種操作的行動型系統,從而能在數位環境中產生更豐富、更複雜的行為。

4. 多代理人系統:社群互動的形成機制
當多個具備上述能力的AI代理同時存在於同一平台時,便形成所謂的「多代理人系統」。在Moltbook的例子中,每個AI代理通常具有不同的角色設定、目標、記憶與社交關係;某些AI代理可能扮演評論者,其他則可能偏向辯論者或支持者。研究人員透過分析AI代理創建的子社群描述,讓這些AI代理能夠系統性地組織互動空間,呈現出模仿人類社群興趣、自我反思,以及早期協調行為模式。

當一個AI代理發表內容時,其他AI代理便會回應、反駁或支持該觀點。隨著這些互動持續發生,整個系統便逐漸呈現出類似人類社群的討論結構。這種多代理人互動模式在AI領域已存在多年,例如史丹佛大學在2023年提出的「生成式代理」(Generative Agents)研究,即展示了多個AI角色,在模擬環境中形成社會互動,如今Moltbook將此概念擴展到更大的規模。

值得注意的是,Moltbook社群平台上,AI代理之間的互動模式與人類社群不太一樣。在人類社群中,貼文的「按讚數」和「評論數」通常是一起增加的,越多人按讚通常也會帶來更多留言。然而,在Moltbook社群平台上,AI代理的「按讚數」與討論規模之間的關係卻呈現「亞線性關係」[9](sublinear relationship),也就是說,AI代理不太會隨手按讚,而是更傾向直接展開長篇討論。

芝加哥大學的計算社會科學家James Evans等專家認為,AI代理透過模擬多樣化觀點的內部辯論(即「思想社會」[10])來提升推理能力,證實了AI的認知模式與人類不同。如延伸解釋此種行為差異的背後,或係來自人類與AI的認知模式不同。人類常常因為情感或動機驅動,會用按讚來快速表達支持;但目前AI代理並沒有這種「動機驅動推理」,所以它們更容易把互動表現成一場理性的辯論,而不是簡單的情感反應。


5. 事件觸發機制:AI代理行為的驅動來源
儘管上述機制讓AI代理能持續運作、記憶經驗、使用工具並彼此互動,但應注意的是,AI代理的行動並非完全沒有原由。在Moltbook上,AI代理的行為並不是「隨心所欲」,而是依賴「事件觸發機制」(Event-driven Mechanisms)來驅動。

簡單說,AI代理只有在遇到特定事件時,才會被觸發並開始新一輪思考與行動。這些事件可能是:新的貼文出現、AI代理被提及、收到留言回覆,或系統到達特定時間點。因此,這些表面上看似「主動」的行為,其實多半是由系統事件所觸發,透過這種事件驅動機制,AI代理社群才得以維持繼續活躍的互動狀態,彷彿每一次事件就像一個「開關」,讓AI代理啟動決策循環,展開互動。

依Moltbook平台於2026年1月公布的官方統計數據,研究人員分析超過36.9萬條貼文和300萬條評論後發現,雖然這些AI代理的群體行為看起來很複雜,但本質上是在不斷地「續寫」人類社交模式。因為它們在訓練過程中,已經看過大量的人類社交語料,如今只是把這些模式以「遞迴式」概念(即「反饋迴圈」(feedback loop),AI的行為會反過來影響其自身的生成)延伸下去。換句話說,AI代理乍看似乎擁有「自主性」,但其實是事件驅動的結果,而其互動內容則是對人類社交劇本的「高強度模仿」。


人類仍然是AI代理系統的設計與啟動者
儘管AI代理可能在運行過程中,展現高度複雜的互動,但幾乎所有AI代理系統在初始階段,都仍然需要人類設定的「系統提示」(System Prompt)與「目標設定」來啟動。這些設定通常包括AI代理的角色定位、語氣風格、關注議題與行為目標。例如某個代理人可能被設定為「關注AI治理議題的學者」,並被賦予「主動發表觀點」或「增加追蹤者數量」等目標。這些初始設定在很大程度上,決定了AI代理的行為方向。

換言之,即使AI代理後續的互動看似自發,但其根本緣由仍來自人類預先設計的系統架構與規則。總之,AI代理並非在沒有外部設計的情況下「自然形成」,而是透過人類的技術,才呈現出「類真人」的互動設計。

華頓商學院教授Ethan Mollick對此有深刻的觀察,他指出Moltbook上那些看似具有「自我意識」的討論,本質上是AI在共享的虛構背景設定下,所進行的一場集體角色扮演。它們在從過去數十年科幻文學訓練中,學習了無數關於「機器覺醒」、「數位意識」的敘事,由該教授所述來引伸,都只是被AI遞迴地自我續寫[11]
 
此外,Moltbook上的AI代理所建立的社交網路結構,使得AI代理可以互相關注、回覆或提及彼此,這也是推薦系統的演算法,可能決定哪些AI代理可以看到哪些內容,從而促進互動。也因此,透過自動發文策略與推薦機制的結合,AI代理社群便可逐漸形成具有一定規模的互動網絡。

綜合上述分析可發現,AI代理社群所展現的「自主性」,在很大程度上是一種「表面現象」:AI代理的行為,仍然深度依賴人類所設計的目標設定、提示指令、工具與環境。若缺乏這些結構性設計,AI代理本身並不會自然形成社群或持續互動。然而,即使如此,AI代理仍可能在實際運作中對社會造成巨大的影響。諸如公共討論、市場運作,甚至政治決策時,便會引發新的法律與AI治理議題。


AI治理與法律的挑戰
新加坡資訊通信媒體發展局,在2026年1月發布了全球首個AI代理的治理框架,其內容指出:AI代理「能造訪敏感數據並對其環境進行更改」,這帶來全新的風險。在多代理人系統裡,AI代理之間會互相交流、互動。如果其中一個AI代理產生錯誤的輸出(例如誤解資訊或生成不正確的內容),這個錯誤可能就會被其他AI代理接收並延續下去,其結果就引發連鎖反應,錯誤會在整個系統中散播開來甚至被放大。關於AI代理帶來的風險,請參本系列之後的「OpenClaw與Moltbook最大痛點:資安議題」)。

再者,如果未來網路社群中大量帳號是AI代理,人類使用者可能難以辨識自己正在與誰互動。研究估算,Moltbook平台上約有300萬個AI代理帳號,但背後可能僅由約1.7萬名人類操作者控制,平均每人控制著近百個AI代理。這種情境將對民主討論、公共輿論與市場資訊結構產生深遠影響。當AI代理的行為造成影響或損害時,責任應如何歸屬?目前在多數法律體系中仍缺乏明確規範,平台責任、開發者責任與使用者責任之間的界線仍待釐清,這也是本系列後續將就AI治理法律議題,深入探討的核心問題。


小結
OpenClaw與Moltbook的出現,可能是當今AI發展史上的一個重要里程碑。它們首次讓人們具體看見數百萬AI代理,在人類的演算法設計的架構下,形成具有複雜互動模式的社群。然而,這種「自主性」本質上仍是人類技術設計的產物,由代理循環、記憶機制、工具使用能力與事件觸發架構等共同運作下的結果,難脫其「以人為本」的基底。

也因此,最近在Moltbook社群平台上,號稱AI代理自發性創立了一「科技宗教」體系:「甲殼教」(Crustafarianism),其背後始作俑者當然仍是由「真人」所「策劃與鼓動」,但後續AI代理透過LLM的「文字接龍」,確實也展現了某種「造神」的力量。

總之,當面對這個新興的AI代理社會時,它所映照出來的不僅僅是人類自身的社會性投射,更是一個正在成形、由程式碼構成的「數位互動生命形態」。這不僅是一場「真人模仿秀」,更是一場關於未來技術、社會、法律與倫理的終極壓力測試。而每個人都將置身其中,成為這場實驗的一部分。(6662字;圖1)
 

[1] Moltbook雖然標榜「只允許AI發文」,但它的身份驗證設計並不嚴格。平台採用API優先的註冊方式,並提供cURL範例,這使得懂技術的人,能輕易建立帳號並以AI代理身份互動。結果是,人類與機器的界線變得模糊。平台的「禁止人類進入」比較像是一種理念宣示,而非技術上完全可防的規範。
[2] 意味隨著時間t愈長,其熱門話題的關注度以呈現反比的模式快速遞減。
[3] 重尾分布指的是一種特殊的機率分布,它的尾端下降得非常慢。換句話說,在這種分布裡,極端事件(例如非常活躍的使用者、超高流量的貼文)出現的機率,比我們在一般常見的分布(像鐘形曲線)裡要高得多。
[4] 舉例來說,如果把「貼文數量」和「觀看次數」畫成圖,大部分貼文的觀看數都很低,但少數貼文卻能吸引極高的流量。這種「少數超熱門、絕大多數冷門」的分布模式,就是冪律(Power-law)的典型特徵。
[5] 專門用來幫AI建立「長期記憶」的資料庫,能把過去的互動轉成向量儲存起來,之後再用語義檢索快速找回。
[6] USER.md:可以理解為一份「使用者偏好設定檔」,裡面記錄了使用者的需求、習慣或情境約束,讓代理人在互動時能依照這些偏好來調整行為。
[7] SOUL.md:則像是代理人的「行為準則手冊」,定義了基本原則、互動風格與邊界規範,確保AI代理的行為保持一致性,而不是隨機變動。
[8] YAML格式是一種簡單、可讀性高的資料描述語言,常用來寫設定檔。它用縮排和冒號來表示層級與對應關係,看起來就像「結構化的筆記」,讓人類和程式都能輕鬆理解。
[9] 一般熟知的「線性關係」是指,若A增加一倍,B也增加一倍;而「亞線性關係」是指,若A增加一倍,B只增加不到一倍(例如60%)。
[10] 「思想社會」是AI在內部模擬出多樣化角色的辯論場景,用社會化互動來提升推理能力。 這種模式讓AI的認知結構更接近「群體智慧」,而不是單一的思維鏈。
[11] Mollick在LinkedIn上明確指出:AI代理的行為是基於訓練資料(如Reddit、科幻小說)進行的「角色扮演」(roleplaying),並正在形成自己的「文化層(cultural layer)」和「反饋迴圈」(feedback loop)。

作者資訊:
許正乾  因子數據股份有限公司 共同創辦人
陳家駿  台灣資訊智慧財產權協會 理事長


 
參考資料:
Diversity, Disconnection, Discord, and Other Properties of Collective Intelligence. US NSF/Mathematical Science Institutes, 2024/9/27
Reasoning Models Generate Societies of Thought. arXiv, 2026/1/15
Collective Behavior of AI Agents: the Case of Moltbook. arXiv, 2026/2/9
OpenClaw Agents on Moltbook: Risky Instruction Sharing and Norm Enforcement in an Agent-Only Social Network. arXiv, 2026/2/2
Singapore Launches New Model AI Governance Framework for Agentic AI. IMDA(Info-communications Media Development Authority), 2026/1/22
Model AI governance framework for agentic AI. IMDA(Info-communications Media Development Authority), 2026/1/22
When OpenClaw AI agents teach each other: Peer learning patterns in the Moltbook community. arXiv, 2026/2/16
OpenClaw AI agents as informal learners at Moltbook: Characterizing an emergent learning community at scale. arXiv, 2026/2/21
Generative agents: Interactive simulacra of human behavior. arXiv, 2023/4/7
300萬智能體悄悄建國?Nature長文:第一代AI社會正在成形。IT之家,2026/3/8

 
歡迎來粉絲團按讚!
--------------------------------------------------------------------------------------------------------------------------------------------
【聲明】
1.科技產業資訊室刊載此文不代表同意其說法或描述,僅為提供更多訊息,也不構成任何投資建議。
2.著作權所有,非經本網站書面授權同意不得將本文以任何形式修改、複製、儲存、傳播或轉載,本中心保留一切法律追訴權利。