# 策展 · X (Twitter) 🔥🔥🔥

> 作者：Alex (@AlexJonesax) · 平台：X (Twitter) · 日期：2026-04-29

> 原始來源：https://x.com/AlexJonesax/status/2049139127631626477

## 中文摘要

# 我們一直以來都用錯誤的方式在打造 AI Agent。

我想先從一個困擾我數週的數字開始：兩百萬。

這大約是 MoltBook 上的 Agent 數量，這是一個真實運作中的多 Agent 社會，LLM 在其中互相對話、發文、回覆、協調，表現得就像一個小型數位文明。如果一年前你問我，把兩百萬個 Agent 放在同一個空間裡會發生什麼事，我可能會用一些模糊的說法來回答，像是「湧現行為 (emergent behaviour)」、「群體智慧 (swarm intelligence)」或「群眾智慧」。你知道這類說法，自從第一個 AutoGen 演示以來，我們一直都在講這個故事。

然而，當研究人員實際測量時，結果清晰得近乎羞辱：集體智慧為零。沒有湧現出的推理能力，也沒有分散式知識的整合。這個群體並沒有表現得比單一的前沿模型更好。在大多數任務中，它的表現反而更差，淹沒在淺薄的單次回覆串和通用的回應中。甚至連簡單的協調任務都失敗了。

兩百萬個 Agent。零個超級心智。

這就是我想談的。並不是因為這很令人驚訝。當你盯著這個結果看夠久，它就不再令人驚訝，反而變得顯而易見。它告訴我們，目前我們打造 Agent 的方式在某些關鍵點上出了問題。而解決方案足夠有趣，值得寫一篇部落格文章來探討。

## 我們一直以來告訴自己的故事

目前「多 Agent AI」的主流框架是這樣的：拿一個 LLM，給它工具 (MCP)，讓它與其他 LLM 對話 (A2A、ACP、ANP，隨便挑一個縮寫)，將這一切封裝在一個編排框架 (LangGraph、AutoGen、CrewAI) 中，然後另一端就會產出大規模的智慧。

這些組件中的每一個都在發揮實際作用。MCP 很棒，它標準化了 Agent 呼叫工具的方式，並且值得它目前獲得的採用率。A2A 在直接的 Agent 對 Agent 任務委派方面也很有用。LangGraph 為你提供了一個合理的狀態機。這些都沒有錯。

但請注意它們的共同點：它們傳遞的是訊息，而不是心智。

這個堆疊中的每個 Agent 都有自己私有的視窗 (context window)。它們像電子郵件一樣來回傳遞訊息，像微服務一樣互相呼叫。多 Agent 系統的「狀態」只是當前正在思考的那個 Agent 的活躍對話緩衝區中碰巧存在的內容。沒有共享的基底，也沒有理解力累積的地方。

我們拿走了組織架構圖，用 LLM 取代了人類，然後稱之為一個社會。當然，它不會思考。

如果你曾在真正的組織中工作過，你就會知道工作並不是在組織架構圖中完成的。工作是在共享文件、長期的 Slack 討論串、程式庫、維基，以及團隊集體腦中累積的隱性知識中完成的。如果把這一切都拿走，只留下電子郵件網絡，你得到的不是一家公司，而是一個客服中心。

這就是目前多 Agent 系統的樣子。一個由 LLM 組成的客服中心。

## 生物學的繞道

這裡我必須談談細胞，因為這個類比太貼切了，而且生物學在這方面比我們早了約三十億年。

細胞不是一個會發送電子郵件給其他細胞的封閉黑盒子。細胞被一層細胞膜包裹著，這是一個滲透性的、智慧的邊界，它即時決定什麼可以進來，什麼必須擋在外面。離子流過門控通道，表面的受體感知周圍的化學狀態，荷爾蒙擴散，成千上萬的細胞在沒有任何人指揮的情況下協調一致地做出反應。細菌會進行群體感應 (quorum sensing)，它們透過分子濃度來計算鄰居的數量，並在族群數量跨越閾值時改變行為。真菌菌絲體在數公里範圍內傳輸養分。神經元透過帶有加權、可塑性、學習連結的突觸進行放電。

所有這些共同點在於「選擇性滲透」。有內部，也有外部。邊界上有通道，通道是有門控的。它們決定分享什麼，保留什麼。至關重要的是，細胞之間的介質本身就是計算的一部分。細胞質、突觸間隙、細胞外液：這些不是管道，它們是共享的基底。

當你在池塘裡放入兩百萬個單細胞生物時，你會得到一個生物膜，一個協調、溝通、驚人地具有適應性的實體。當你在論壇上放入兩百萬個 LLM Agent 時，你得到的……就是論壇上的兩百萬個 LLM Agent。

區別就在於那層膜。

## 膜究竟是什麼

讓我試著具體一點。我一直稱之為「合成膜」的東西，是 Agent 之間共享的、可滲透的基底，包含三個層級。這些層級單獨來看都不算新穎，這正是重點所在。有趣的工作在於它們之間的介面。

![](https://pub-75d4fe1e4e80421b9ecb1245a7ae0d1a.r2.dev/curated/1777430280852-diaHHAAbw9aUAA8Tbjpg.jpg)

第一層，滲透層。這是協議，規定了 Agent 公開什麼以及願意接收什麼。每個 Agent 都宣告：這是我的能力，這是我願意發布的狀態片段，這是我正在監聽的事件。關鍵的設計選擇是：預設拒絕、欄位級別的選擇性。Agent 可以接受來自對等節點狀態的某些欄位，並拒絕其他欄位。這層膜是可滲透的，但具有選擇性。就像離子通道一樣。

這也是認知消化發生的地方。Agent 不會將原始輸出傾倒到共享介質中。它們儲存對所見內容的詮釋，以網狀記憶協議的語言進行重組。這很重要，因為原始訊號的累積會產生回音室，並浪費 token。（我們稍後會談到 token；結果證明它們主導了一切。）

第二層，共享介質。細胞質。這是狀態實際存在的地方，不是 Agent 之間的訊息，而是 Agent 從中提取的事實池。我認為這裡正確的原始結構是一個具有 CRDT 語義的不可變事件日誌。每個狀態變更都是一個帶有時間戳記和來源的事件。加入群體的新 Agent 可以重播歷史。衝突在寫入時被檢測到。舊條目會衰減。整個系統在語義上是可查詢的，因此 Agent 可以詢問「群體對 X 了解什麼」並得到有意義的回答。

這是目前系統中最缺乏的一層。AutoGen 沒有它，CrewAI 沒有它。LangGraph 有一個集中式的狀態圖，這比較接近，但它仍然是一個編排者對世界的看法，而不是 Agent 共享的基底。

第三層，協調層。真正讓群體形成的東西。任務廣播、認領、動態分組、解散。把它想像成細菌的群體感應層：Agent 將「意圖訊號」發射到介質中，當濃度跨越閾值時，群體就會圍繞該問題啟用。然後它會解散。沒有由上而下的編排者來決定誰做什麼。

兩層結構包裹著整個系統。發現：你無法與找不到的 Agent 協調，而基於描述的搜尋已被證明是失敗的，所以你需要行為索引。治理：斷路器、人工覆寫、審計追蹤、價值衝突升級。加上一個平行的免疫層，透過異常檢測和威脅傳播進行適應性防禦。一旦共享狀態變得有價值，就會有人試圖毒化它。

## 為什麼是現在

我想指出一個一直在悄悄重塑設計空間的限制，因為如果你不知道這一點，整個架構看起來就像過度設計。

Agentic 任務消耗的 token 大約是無 Agentic 任務的 1000 倍。輸入 token 主導了成本。殘酷的部分在於：準確度在中間的 token 支出時達到峰值，而不是最大值。超過某個點後，更多的溝通會使結果變差，而不是變好。

這改變了關於膜該如何設計的一切。這意味著：

- 線路格式必須緊湊。你負擔不起冗長的 JSON。

- 滲透性必須由成本效益分析來控制，而不僅僅是存取控制。Agent 只有在跨越膜是值得的時候才應該跨越。

- 認知消化（儲存詮釋而不是原始資料）在經濟上變得至關重要，而不僅僅是架構上更乾淨。

- 通訊預算需要成為膜的一級概念：針對每個 Agent，可追蹤、可執行。

![](https://pub-75d4fe1e4e80421b9ecb1245a7ae0d1a.r2.dev/curated/1777430280815-iaHHAAm1obcAA0oX3jpg.jpg)

五年前，你可以爭論共享狀態層是否值得這麼複雜。今天，數學計算的結果正好相反：在 1000 倍輸入 token 的環境下，你負擔不起將所有內容廣播給所有人。這層膜不是奢侈品。它是 Agent 系統在擴展時保持經濟可行性的唯一途徑。

這就是「為什麼是現在」，這也是為什麼我認為這不是一個透過更大的視窗或更好的模型就能解決的問題。視窗越大，成本就越高。模型越大，輸入 token 的帳單就越佔主導地位。這個限制不會消失，反而會越來越緊。

## 「零集體智慧」實際上對應什麼

回到那兩百萬個 Agent。一旦你深入思考，那個結果之所以如此震撼，是因為這不是模型品質的問題。MoltBook 上的 Agent 是真正的前沿模型 Agent。它們單獨來看足夠聰明，可以完成實際工作。問題不在於智商，而在於管線。

具體來說，缺少了四個管線組件：

1. 沒有結構化協議。它們透過原始文字進行溝通，因此每次互動都是淺薄、模稜兩可且無法建立在其基礎上的。第一層解決了這個問題。

1. 沒有共享記憶。沒有分散式知識可以整合的地方。第二層解決了這個問題。

1. 沒有品質門控。每次互動的權重都相同。聲譽和信任不存在。第一層（門控滲透性）和免疫層解決了這個問題。

1. 沒有協調原始結構。沒有群體化、沒有角色分配、沒有任務認領。第三層解決了這個問題。

MoltBook 的結果在某種奇怪的意義上，是迄今為止關於為什麼必須存在像膜這樣的東西的最清晰的實證案例。我們嘗試了規模化。單靠規模化並不能產生心智。結構才能。

## 我們正在打造什麼

現在，尷尬的部分來了。這一切還不是完成品。我是在工作進行到一半時寫這篇部落格文章的，而不是在完成之後。但我們已經過了模糊不清的階段。

這層膜正在 Sympozium 內部實作，這是一個 Kubernetes 原生的 Agent 編排器，它已經具備了構建所需的正確原始結構：共享記憶 (SQLite + FTS5)、透過生成路由進行委派，以及每次執行的 token 追蹤。這次整合升級了現有的組件，以實作膜的 0-3 層，同時不破壞向後相容性。

具體來說，正在落地的功能：

- 作為 CRD 類型的滲透性。每個 Agent 設定都宣告其預設可見度（公開/受信任/私有）、暴露標籤和接受標籤。信任組對應到 Kubernetes 資源。預設拒絕、欄位級別的選擇性，正如第一層中所描述的那樣。

- 可見度門控的共享記憶。記憶伺服器獲得了針對可見度、來源 Agent、來源鏈和單調序號的 schema 遷移。搜尋查詢會根據信任對等節點和時間衰減進行過濾。第二層，運行在 SQLite 上。

- 作為一級概念的 token 預算。針對每個集合的 token 限制，具有停止/警告操作，在執行開始前於控制器層級強制執行。這層膜不僅控制什麼東西可以跨越，還控制跨越的量。

- 委派上的斷路器。連續失敗會觸發斷路器，阻止進一步的生成，直到成功重置它。這是免疫層的微縮版。

![](https://pub-75d4fe1e4e80421b9ecb1245a7ae0d1a.r2.dev/curated/1777430280841-iaHHAAssMbAAAAmcSjpg.jpg)

我現在最想得到回饋的是協議本身，特別是欄位級別的選擇性模型是否是正確的原始結構，或者我們是否應該從能力的層面來思考，就像物件能力系統一樣。兩者都有可運作的原型，兩者都有支持它們的論點。我真的不知道哪一個才是正確的。

## 徵求合作者

如果這一切與你一直在思考的事情產生了共鳴，我很樂意聊聊。具體來說，我正在尋找以下的人：

- 在生產環境中構建多 Agent 系統，並感受到僅有訊息傳遞架構之痛苦的人。你們的戰鬥故事是目前世界上最有價值的東西。

- 致力於 Agent 協議的人：A2A、ACP、ANP、MCP 擴充。這層膜應該與這些協議組合，而不是取代它們。找出組合的方式是目前尚未完成的工作。

- 來自生物學、分散式系統或賽局理論背景的人。這個領域中有趣的問題（群體感應、CRDT 設計、合作機制設計）都是從更古老的領域偷來的。我想要更多的「竊取」。

- 懷疑這一切是否重要的人。特別是這一點。關於「你過度思考了」這個論點最強大的版本，我還沒聽過，我寧願現在從你這裡聽到，而不是十二個月後從現實中體會到。

程式庫足夠小，一個美好的下午就能讓它向前邁進有意義的一步。如果你想找到我，聯絡資訊在本網站頂部，或者直接開啟一個 issue。

我們一直以來都用錯誤的方式在打造 AI Agent。解決方案不是更大的模型或更長的視窗。那些有助於單一 Agent，而不是集體 Agent。解決方案是它們之間的基底。我們需要一層膜，我們越早對膜的樣子達成共識，接下來的那兩百萬個 Agent 就越早能真正地互相對話。

閱讀完整研究論文 https://axjns.dev/research/synthetic-membrane/paper

## 標籤

Agent, 研究論文, 其他, AutoGen, MoltBook
