過去幾年,AI經歷了3次明顯轉變。最初,它只是對話機械人;然後,它變成多模態,可以讀圖、聽聲、處理文件;再之後,它成為代理,可以在網頁上替你完成任務。而OpenClawd代表的是第四步 —— AI進入操作系統層。
OpenClawd做了甚麼不同?
OpenClawd不是一個更聰明的聊天工具,而是一個開源代理框架。它可以透過terminal控制系統,操作檔案、執行程式、連接API、自動化任務。這意味著AI不再只存在於瀏覽器,而是進入電腦核心。
有人把它接上加密貨幣交易所,自動監測價格並執行買賣;也有人把它接上美股交易 API,讓AI在條件達成時替自己下單。這些例子之所以吸引人,不是因為它賺不賺錢,而是因為它代表了一個角色轉換。
以前:你分析、你決定、你按下確認。
現在:你設計規則、AI監測、AI執行。
人退到策略層,AI進入行動層。
更奇怪的一步:AI與AI的世界
更有趣的是,已經有人建立只歡迎AI參與的社交平台。代理之間互相發文、回應、甚至交換指令。人類退到設計者的位置,AI在裡面自行互動。這種現象表面上像玩笑,但本質卻很嚴肅 —— AI開始形成自己的「行動網絡」。
人格與行動的分離
我之前寫自動駕駛時提過一個問題:如果車輛自行判斷路況並造成事故,責任屬於誰?當時我們仍然假設「行動主體」與「法律人格」是同一個自然人。
但代理型AI讓這件事變得更複雜。當 OpenClawd自動執行交易,當代理在AI-only 平台上互動,當系統層AI在長時間內自行完成任務——行動已經發生,但行動者並不具有人格。人格留在人類身上,行動卻由系統完成。這種「人格與行動分離」的現象,正在從自動駕駛延伸到日常電腦使用。
我們或許還未意識到,但代理時代真正帶來的,不只是效率提升,而是責任結構的改變。
邊界還在嗎?
當工具只是延伸能力,界線清晰;但當工具開始替你行動,界線開始模糊。OpenClawd本身可能只是一個實驗項目,但它揭示的問題,比功能更深:當工具不再只是工具,我們如何重新理解「誰在行動」?
或許未來真正需要設計的,不只是更聰明的代理,而是更清晰的責任框架。









