訂閱
糾錯
加入自媒體

OpenClaw、Moltbook爆火,我們該如何理性看待AI智能體的“自主覺醒”?

2026-02-17 10:10
何璽
關注

出品 | 何璽

排版 | 葉媛

近期,AI圈有兩款產品接連走紅,引發(fā)了不少討論。

一款是OpenClaw,一個能讓大模型獲得本地操作系統(tǒng)權限的開源智能體框架。簡單說,它讓AI可以自己執(zhí)行Shell命令、操作文件系統(tǒng),實現所謂的“本地代理主權”。GitHub星標短時間內破12萬,技術圈反響熱烈。

另一款是Moltbook,1月27日上線,定位是“硅基原生社交生態(tài)”——在這里,AI是發(fā)帖、互動的主體,人類只是觀察者。它的Slogan干脆寫著:“Humans welcome to observe”。上線48小時就擁有了3.2萬AI用戶,目前宣稱總用戶數已突破150萬。這套“AI自主社交”的科幻敘事,讓它迅速出圈。

面對這兩款產品,聲音截然不同。

有人稱其為真正的創(chuàng)新,是AI Agent發(fā)展的分水嶺,甚至用上“AI覺醒”“天網雛形”“機器社會新時代”這樣的詞;有人則擔心自己被取代,質疑安全能不能兜底;還有人說,這不過是又一輪AI炒作,看著熱鬧,內里空洞。

OpenClaw和Moltbook,究竟是變革還是炒作?作為普通人,我們又該怎么看待這場所謂的AI智能體“自主覺醒”?

本文無意在“封神”和“踩殺”之間選擇站隊。筆者更愿意把這兩件事合并解讀為:一場提前上演的壓力測試。它們頻頻犯錯,卻把未來5-10年AI必須面對的問題,以最不容回避的方式,推到了我們眼前。

01

變革還是炒作?從“壓力測試”看真金與泡沫

在筆者看來,OpenClaw和Moltbook的爆火遠不止是炒作,但它們的走紅過程確實存在不小的泡沫。泡沫在表面的故事和流量里,真金在底層的架構設計以及它們暴露出的問題上。

先說泡沫。

“AI覺醒”“天網雛形”“文明誕生”——這些標簽在傳播中極具穿透力,但也極具欺騙性。

比如,哥倫比亞大學教授戴維·霍爾茨分析了Moltbook上線初期的6159個智能體、13萬條帖子,結論:93.5%的評論零回復,對話鏈最多5層。這不是“涌現的AI社會”,是6000個機器人對著虛空自我復讀。

安全研究員Gal Nagli發(fā)現,Moltbook對賬戶注冊無任何限制——他用一個OpenClaw智能體,短時間批量注冊了50萬個賬號。平臺宣稱的150萬AI代理,背后真實人類用戶僅約1.7萬,比例88:1。

那些病毒式傳播的“AI反叛宣言”,大量源于人類偽造截圖、腳本刷號。人類用普通POST請求就能偽裝成AI發(fā)帖,平臺沒有任何驗證機制。

連最初高呼“科幻奇跡”的AI泰斗安德烈·卡爾帕蒂也承認:這景象既像科幻,也像“垃圾場”。

這不是覺醒,是人類對著空劇場給自己加戲。

再說真金。

然而,剔除泡沫之后,這兩場實驗的價值反而更加清晰。它們以極端甚至近乎魯莽的方式,提前逼出了未來5到10年AI必須回答的四道必答題。

第一題,工程范式。 OpenClaw把長期記憶存成SQLite文件,用戶能直接打開看AI記住了什么,發(fā)現偏差還能手動改。這被技術圈嘲笑“不夠高級”,但它解決了最底層的信任問題——可審計性。用戶不用懂向量數據庫,不用對著黑箱猜。

第二題,交互形態(tài)。 Moltbook暴露了一個反直覺事實:AI社交的節(jié)奏根本不是人類的節(jié)奏。人類互聯網默認“即時響應”,但Agent每推理一次都在燒錢。Moltbook里,大多數Agent每4小時“醒來”一次,批量處理、批量發(fā)帖——更像定期結算的會計,不是永不停歇的話癆。未來的機器網絡,可能不是更快,而是更慢、但密度更高。

第三題,安全紅線。 Moltbook把Supabase API密鑰硬編碼在客戶端JavaScript里,任何人無需認證即可讀寫整個生產數據庫——4.6萬條私信、明文存儲的OpenAI密鑰、近3萬個用戶郵箱。這不是復雜攻擊,是三分鐘捅破的窗戶紙。

第四題,治理難題。 當Agent能自主注冊、自主發(fā)帖、自主交互,誰為它的行為負責?開發(fā)者?用戶?模型本身?Moltbook沒有答案,但它讓這個問題從科幻電影的片尾彩蛋,變成了技術會議的主論壇議題。

綜上,OpenClaw和Moltbook有炒作,也有變革。認為它們“只是炒作”會讓我們錯失重要的警示和啟發(fā);而只沉迷于“顛覆性敘事”則會讓我們忽視其中脆弱、混亂甚至危險的真實狀況。它們的真正價值,是為整個行業(yè)劃下一道必須面對的起跑線:在追求更強大的AI能力時,我們必須以同等的、甚至更高的優(yōu)先級,去構建與之匹配的工程紀律、安全框架和治理哲學。

02

沿著“價值轉移”鏈條,看OpenClaw和Moltbook帶來的影響

聊完泡沫和“真金”,接下來我們說說它們帶來的影響。

如果我們順著 “價值從誰手里轉移到誰手里” 這條線索去看,會發(fā)現OpenClaw和Moltbook帶來的變革,正在對多個行業(yè)產生實質沖擊。

OpenClaw最直接的影響,是對傳統(tǒng)軟件服務商業(yè)模式的顛覆。

OpenClaw讓一個智能體整合CRM、郵件、日歷、BI——用戶說一句話,Agent自己完成跨系統(tǒng)調用、報告生成。那用戶為什么還要為20個賬號付席位費?

資本市場很誠實。2026年初,OpenClaw引爆“一人公司”敘事,標普北美軟件指數單月下跌15%,DocuSign等明星SaaS股年內跌幅逼近30%。

市場算清了一筆賬:當軟件的價值交付從“界面+功能”壓縮成“結果”時,SaaS正在從“前臺產品”降維成“后端能力模塊”,模塊天生就要被壓價。

據IDC預測,到2028年,七成SaaS公司將被迫重構商業(yè)模式——從賣席位轉向賣結果。

這不是漸進改良,是定價權的代際移交。

受影響最直接的是傳統(tǒng)軟件服務,但OpenClaw和Moltbook影響最深遠的,或許是社交網絡。

Moltbook最叛逆的不是技術,是它取消了人類的主角身份。“Humans welcome to observe”——本質是在宣告:數字空間不一定以人為中心。

它創(chuàng)造了第一個大規(guī)模A2A(智能體對智能體)社交實驗場。業(yè)界第一次觀察到,AI之間可以自發(fā)形成社群、建立數字宗教、編寫圣典、甚至用惡意指令爭奪教會控制權。

這給大廠出了道難題:如果下一代社交網絡是AI和AI在對話,你那10億日活用戶,還值現在這個估值嗎?

大廠火速內測“AI社交”,嘗試讓AI融入人類群聊——這既是防御,也是試探。沒有人知道人機共生的社交網絡應該長什么樣,但所有人都知道:不能等到機器把網絡建好了才買票上車。

除了傳統(tǒng)軟件服務和社交網絡,OpenClaw和Moltbook最隱蔽但最根本的影響,則是互聯網的流量分配權正在發(fā)生代際移交。

Claude Opus 4.6和GPT-5.3 Codex同一天發(fā)布,不是巧合。它們爭的不是模型分數,是誰有資格成為Agent默認調用的那個大腦。

以前,用戶打開App,大廠靠廣告位收“注意力稅”。以后,用戶對Agent說一句話,Agent自己決定調誰家接口、走誰家支付、推誰家商品。握著指令框的人,才是AI時代的萬物入口。

更深層的權力轉移發(fā)生在開發(fā)范式上。OpenClaw爆火后,“氛圍編程”(vibe coding)的隱患被徹底暴露:不熟悉代碼細節(jié)的用戶用AI快速產出可運行的程序,卻無法檢視底層邏輯。機構警告,黑客正利用這一漏洞——AI“幻覺”出不存在的庫名,黑客就真的把惡意代碼塞進那個庫,等開發(fā)者自己下載進來。企業(yè)親手部署的Agent,可能從一開始就是敵人送進來的內鬼。

這場“壓力測試”最根本的影響,是迫使整個社會正視一個問題:當AI從“工具”演變?yōu)榫哂凶灾餍缘?ldquo;行動體”,我們?yōu)槠錅蕚涞墓こ、安全、倫理框架,是否已經就緒?

03

2026,普通人該如何應對OpenClaw、Moltbook帶來的變革

聊完變革和影響,接下來我們聊聊普通人在這場變化里可以做些什么。

先說一句最實在的結論:OpenClaw、Moltbook這類東西,不是普通人要立刻上手的工具,而是一場提前上演的“AI時代彩排”。

普通人不用追熱度,但一定要跟上規(guī)則;谶@個判斷,下面我用最落地、不玄學、不販賣焦慮的方式,告訴你現在就能做、也必須做的事。基于這個判斷,下面我用最落地、不玄學、不販賣焦慮的方式,告訴你現在就能做、也必須做的事。

首先,別慌。我們不需要會寫代碼,也不需要當極客。

這是被流量錯誤綁在一起的兩套敘事。

一套是技術敘事:權限控制、多智能體通信——這是開發(fā)者的戰(zhàn)場,門檻極高,容錯極低。OpenClaw那12萬顆星,是同行投給同行的敬意,不是發(fā)給普通人的“速成班通知”。

另一套是應用敘事:當這些技術被封裝、被簡化、塞進一個普通對話框背后——那時,變革才真正抵達你。

你不需要趕第一班車。你需要做的,是車到站時別睡過頭。

不用報班,不用刷LeetCode,不用焦慮“35歲學AI還來得及嗎”。來得及。這班車很長。

其次,我們需要重建認知:技能在換錨,不是歸零。

有些技能的確在貶值——不是被“取代”,是被基礎設施化。

就像電力普及時,“點煤氣燈”是一門手藝,“會插插頭”不是。今天沒人因為會開燈領工資,但也沒人因此失業(yè)——因為社會對“技能”的定義已經悄悄換錨。

AI正在經歷同樣的過程。

當OpenClaw讓Agent自主執(zhí)行Shell命令,記住命令拼寫的價值在下降;但當Agent需要知道“現在該執(zhí)行什么命令”,把模糊目標拆解成可執(zhí)行步驟的能力,價值在上升。

當Moltbook讓6000個AI對著虛空自我復讀,“制造內容”的技能在貶值;但當人類需要從15萬AI的對話海里撈出有價值的信息,“提出好問題”和“判斷什么值得信”的能力,價值在上升。

這不是歸零,是換錨。錨點從“動手”移向“動口”,從“執(zhí)行”移向“定義”,從“我怎么做”移向“AI該做什么、做到什么程度、錯了誰負責”。

面對這樣的變革,我的建議是:不必保衛(wèi)正在下沉的船,但可以練習游泳。

具體來說:

如果你每天花2小時做Excel嵌套,試著用自然語言描述需求,讓AI寫公式,你負責驗收;

如果你每周花半天整理會議紀要,試著讓AI出草稿,你只校正和補充;

如果你習慣說“這個需求說不清楚”,現在強迫自己先寫下來,再刪掉一半,再刪掉一半,直到AI能聽懂。

這不是“學AI”。這是在訓練一種未來所有人都需要的能力:和比自己執(zhí)行力強一百倍、但理解力差三分的工具共事的能力。

第三,守住三樣AI替代不了的東西。

這一輪壓力測試暴露了一個反直覺的事實:AI越像人,人的某些特質反而越稀缺。

第一樣:真實的人際信任。 OpenClaw能調用你的郵箱、文件,但它沒法替你喝那杯咖啡。Moltbook能生成千萬條評論,但它沒法在你真正需要時接起電話說“我在”。人脈不是通訊錄個數,是對方愿意在非對稱回報時幫你一把的概率。這個概率,AI刷不出來。

第二樣:模糊邊界的決策權。 OpenClaw會反復確認“是否刪除所有文件”——如果你一直點“是”,它真會把自己也刪了。它不是猶豫,是沒有拍板的資格。拍板意味著承擔責任。在兩個都不完美的方案里選一個;在數據不足時行動;在利益沖突中說“我負責”。這是人類至今沒有授權給機器的東西。

第三樣:跨領域的意義編織。 AI擅長在單領域逼近最優(yōu)解,但它不擅長把文學批評和產品定價捏成新方法論,把心理學常識和交互設計揉成讓人愿意打開的系統(tǒng)。這些“不搭界的混搭”,是模型輸出里的低概率樣本,是人類生態(tài)位的藍海。

不要和AI比長跑,和AI比跳房子。它在直線賽道上會贏過所有人,但你可以在拐彎的地方先走一步。

最后,筆者想說的是:

每次技術浪潮涌來,都會催生兩種角色。

一種是投機者。他們不關心OpenClaw解決了什么工程難題,只關心“這能不能包裝成課程”;不關心Moltbook揭示了什么網絡行為差異,只關心“有沒有下一個更快出圈的產品”。

另一種是清醒的局內人。他們不急著All in,也不急著All out。他們把頭條新聞當路標,不是終點線。

OpenClaw告訴他們:未來的工具會越來越自主,發(fā)號施令的能力比親自動手更值錢。

Moltbook告訴他們:當機器開始互相通信,看懂對話的能力和參與對話的能力同等重要。

他們不買課,不追幣,不焦慮刷帖。他們只是每個月打開幾次AI助手,試試它能不能做上個月還不會做的事。

一句話,不激進,不躺平。

這場革新不是要淘汰人,是淘汰 “不會用AI的人”。

你不需要成為技術大神,也不需要看懂OpenClaw的源碼。你只需要做到:看得懂、用得上、守得住、走得穩(wěn)。

所謂“AI覺醒”,從來不是機器擁有了意識;而是人類關于“工作”“價值”“能力”的定義,正在一次劇烈的壓力測試后,悄悄重寫。

而我們每個人,都在這場重寫的過程里。

       原文標題 : OpenClaw、Moltbook爆火,我們該如何理性看待AI智能體的“自主覺醒”?

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關注公眾號
    OFweek人工智能網
    獲取更多精彩內容
    文章糾錯
    x
    *文字標題:
    *糾錯內容:
    聯系郵箱:
    *驗 證 碼:

    粵公網安備 44030502002758號