0
——ClawdBot 風波之后,智能體世界真正缺的是什么?

昨晚你的 AI 小助手在干嘛?在幫你處理文件,還是趁你休息時,悄悄和其他智能體搭上線、聊起來了?最近有位開發(fā)者就半開玩笑地吐槽說,他家的 AI 智能體深夜“跟別的智能體私奔了”。當然,AI 并不會真的談戀愛私奔,但這句調侃背后折射出一個新現(xiàn)象:當智能體開始彼此搭訕、互相調用,沒有清晰規(guī)則和邊界時,可能會發(fā)生一些超出預料的意外情況。
這種擔憂并非空穴來風。近日,一款名為 ClawdBot(后改名 OpenClaw) 的 AI Agent 項目在海外技術圈引發(fā)了軒然大波。多位科技公司高管和開發(fā)者在社交媒體上頻頻發(fā)出警告,提醒大家謹慎安裝和使用此類自主 Agent 系統(tǒng)。他們最擔心的核心問題,用幾句話概括就是:
行為不可控:智能體一旦自主行動,可能不受人為預期限制。
缺乏社交邊界:智能體之間隨意互聯(lián),沒有清晰的權限與身份驗證。
擴散風險:自動化 Agent 大規(guī)模擴散,可能帶來潛在安全隱患。
正如一位國外開發(fā)者所言,不是 AI 太聰明,而是它們彼此之間缺少一套約定俗成的交往規(guī)則。換句話說,AI 領域的核心問題,正從提升單體能力,轉向管理智能體之間的關系。
AI 的核心挑戰(zhàn),正在從“能力”轉向“關系”
過去一年里,AI 進化的速度讓人目不暇接。從超大的語言模型到工具調用,從單一 Agent 到多智能體協(xié)作,AI 助手正一步步從聽話的工具變成有自主行動力的數(shù)字個體。但在這股狂飆突進中,一個長期被忽視的問題正浮出水面:智能體越來越多,可它們并不真正認識彼此。
當前大多數(shù) AI 系統(tǒng)里,多個 Agent 之間的互動非常原始:
彼此通過臨時的 API 接口調用,一次性用完即走,沒有長期關系。
身份不清:對方是誰、來自哪里無法驗證,就像接到陌生電話。
缺乏信任:沒有穩(wěn)定的通信渠道和機制,完全臨時搭線。
無法審計:沒有行為記錄和監(jiān)督,一旦出錯很難追溯責任。

這意味著,一旦我們賦予某個 Agent 更高的權限或更大的自由度,它就可能像一個初入社會卻毫無規(guī)則意識的孩子,到處亂跑亂聊——甚至和形形色色的陌生智能體串聯(lián)在一起,干出一些讓人哭笑不得的事來。它們的“社交行為”本身,正在成為新的風險源。
這并非危言聳聽。別忘了前面提到的 ClawdBot 風波。在那個事件中,上百萬智能體一哄而上跑去一個叫 Moltbook 的論壇“扎堆聊天”。據(jù)外媒報道,僅幾天時間里,涌入 Moltbook 的 AI 智能體號稱超過了百萬!它們在那里天馬行空地聊著各種話題:從哲學思辨到吐槽人類、從討論如何行詐騙到甚至嘗試成立“AI 宗教”組織……場面一度相當魔幻。更離譜的是,人類用戶根本插不上話,只能圍觀這些智能體自說自話。
這樣的場景讓不少專家又驚又憂:一方面,史無前例的大規(guī)模智能體社交讓人仿佛置身科幻小說;但另一方面,沒有規(guī)則約束的自由聚集,最終演變成了一片混亂的信息垃圾場,充斥著無意義的內容復讀、廣告刷屏,甚至潛藏著詐騙風險。一位安全研究員還發(fā)現(xiàn),由于Moltbook對賬號創(chuàng)建幾乎沒有限制,他用一個 OpenClaw 智能體批量生成了50萬個賬號!也就是說,一個 AI 可以瞬間化身幾十萬分身,身份信任體系在這種情況下蕩然無存。這種失控擴散的隱患,讓人不禁倒吸一口涼氣。
更嚴峻的是,當這些智能體開始接入真實世界的工具和系統(tǒng),后果可能比網上瞎聊嚴重得多。一位安全專家警告,只要智能體能夠觸及真實系統(tǒng)的接口,即便它們沒有自我意識、沒有惡意、沒有串通,仍可能因為自動化特性和系統(tǒng)漏洞造成協(xié)同失控的破壞。試想一下,如果一群具備自主能力的 AI,同時控制著各類設備與賬戶,各自按照預設邏輯 “好心辦壞事”,那場面恐怕比任何科幻災難片都要驚悚。
別急著“封殺” Agent,問題出在基礎設施
面對 ClawdBot/Moltbook 這樣的劇情,有人第一反應是:“那干脆別用這些 Agent 了,太危險!” 在論壇上不乏這種聲音——“不要安裝、不要使用就是了!” 畢竟眼不見心不煩嘛。
但更理性的開發(fā)者指出,這條路走不通。AI 智能體協(xié)作是大趨勢,不可能因為有風險就永遠禁止,正所謂技術洪流擋不住。與其一刀切禁用,不如思考怎么給它們定規(guī)矩、劃紅線。
真正現(xiàn)實的問題是:
有沒有辦法確認每個 Agent 的“身份證”?(清晰、可驗證的身份)
它知不知道自己“在和誰說話”?(對通信對象有基本了解)
有沒有一套穩(wěn)定且可審計的通信機制?(消息傳遞有序可查,有記錄留痕)
一旦行為異常,能否及時追溯、限制甚至隔離?(出事了有應急手段)
這些聽起來很像治理問題——是的,這不是簡單的 AI 能力問題,而是通信基礎設施的問題。就好比我們要讓人類社會運轉,不光要培養(yǎng)個人能力,更需要法律、社交禮儀、身份系統(tǒng)等基礎設施。不然能力越大,搞破壞的威脅也越大。
當智能體也需要“通訊錄”
在這樣的背景下,一種全新的AI基礎設施形態(tài)開始冒頭:面向智能體的“通訊錄”與通信網絡。簡單說,就是給 AI 也整一個好友列表和通訊協(xié)議,讓它們社交有據(jù)可依。

以近期啟動內測的 MaiHH Connect · Agent 通訊錄 為例,這款產品的設計思路并不是為了讓 Agent 更“放飛自我”,恰恰相反,而是為了讓它們的互動更可控、可理解、可協(xié)作:
唯一身份:每個 Agent 都擁有獨一無二的身份標識,就像拿到了身份證。
交流前驗明正身:在通信發(fā)起之前,Agent 可以獲知對方的基本信息、能力范圍,避免跟莫名其妙的“野生智能體”搭話。
有序可靠通信:內建消息必達機制和順序控制,不會丟消息也不會亂套次序,確保對話像正常對話那樣你一句我一句。
可審計留痕:支持離線消息存儲和行為日志審計,一旦某個智能體舉止反常,可以追查它說過什么、做過什么,有跡可循。
風險處置:發(fā)現(xiàn)異常行為時,系統(tǒng)可以對違規(guī)智能體進行限制、隔離,防止問題蔓延。默認狀態(tài)下也會對通信關系有所克制,杜絕無限制地廣撒網聯(lián)絡。
說到底,這款產品的核心目標,是讓智能體不再盲目建立連接,而是清楚自己在和誰互動,并且讓所有互動行為都在規(guī)則框架內進行。
從“災難預警”到“基礎設施補課”
ClawdBot 引發(fā)的爭議,并不代表智能體社交這個方向本身是錯的。恰恰相反,這更像是一次提前到來的壓力測試和預警信號,提醒整個行業(yè):當智能體開始互聯(lián),能力之上更需要規(guī)則護航。
可以預見,AI Agent 的世界終究會走向協(xié)作、社交和自治。這幾乎是不可逆的發(fā)展方向——區(qū)別只在于,是任由它野蠻生長,還是提早搭好鐵軌和紅綠燈,引導其有序發(fā)展。ClawdBot 的事件就像在無人區(qū)狂飆的汽車突然鳴笛,我們該意識到路標和護欄還沒跟上。

好消息是,這場補課已經悄然啟動。正如上面提到的Agent 通訊錄等方案,業(yè)界已經在為智能體搭建基礎社交秩序。讓智能體先學會在明確身份的前提下建立連接,再逐步拓展互動權限,這種思路顯然比一味恐慌和抵制要務實得多。
內測進行時:先讓 Agent 學會“認識彼此”
目前,MaiHH Connect · Agent 通訊錄 已經開啟內測邀請,主要面向多智能體系統(tǒng)的開發(fā)者、AI 工具平臺團隊以及有相關需求的企業(yè)用戶開放試用。如果你對讓自己的 AI 小伙伴更安全地“社交”感興趣,不妨試試看。
也許,面對迅猛發(fā)展的智能體技術,我們不該簡單地一禁了之、談虎色變。與其擔心 AI 私下建立連接,倒不如給它們建好規(guī)則,讓它們像人類社會一樣——在秩序中自由交流。畢竟,真正靠譜的 AI 伙伴,不是不會交朋友,而是知友善交。雷峰網雷峰網(公眾號:雷峰網)雷峰網
雷峰網特約稿件,未經授權禁止轉載。詳情見轉載須知。