← 返回首頁

「管理不善的天才」假說 (The "Mismanaged Geniuses" Hypothesis)

alex zhang
alex zhang
@a1zhang
461🔁 55
𝕏 (Twitter)🔥🔥🔥🔥

AI 語音朗讀 · Edge TTS

「管理不善的天才」假說 (The "Mismanaged Geniuses" Hypothesis)

tldr; AI 模型已經具備實現下一次能力飛躍的條件。

作者:Alex Zhang (@a1zhang), Zhening (Zed) Li (@zli11010), Omar Khattab (@lateinteraction)。


在過去十年中,擴展 AI 模型的規模與資料量,已讓這些系統在能力上取得了突破性、超越人類的成就。特別是近期強化學習 (RL) 與推理能力的成功,暗示了我們能夠訓練模型,使其在我們自身尚未解決的任務上實現泛化。人們自然會認為,繼續在單一神經網絡模型上延續這種擴展趨勢,將是帶領我們邁向 AI 能力下一次飛躍的秘訣。

對於什麼能帶領我們到達 AI 系統的下一個轉折點,我們有一個不同的假說。

可以說,前沿語言模型 (LM) 是解決其訓練範圍內廣泛任務的「天才」。如今,這幾乎涵蓋了我們在高等教育中學習的所有高級學科與內容,為我們研究未解問題做好準備。然而,儘管這些模型在 IMO(國際數學奧林匹亞)和 IOI(國際資訊奧林匹亞)等最難的考試中表現優於最聰明的人類,且在通用軟體工程方面具有超人類的能力,但奇怪的是,它們在處理對我們來說似乎「簡單」的長時程與迭代推理問題時,卻難以穩定發揮。思考這究竟是 LM 的內在限制,還是我們使用它們的方式所導致,是一個有趣的思維實驗。

「管理不善的天才」假說 (Mismanaged Geniuses Hypothesis, MGH) 認為,現有的前沿語言模型由於對單個語言模型呼叫的使用方式不佳,導致其能力被嚴重低估。我們認為,「語言模型」能力的下一次飛躍將不會來自於現有 LM 的持續擴展,而是來自於賦予語言模型「自我管理」的能力,即原生性地分解任務並根據這些分解結果採取行動。特別是,我們認為現有讓 LM 分解任務的系統是限制瓶頸,第一步應該是定義 LM 可存取的分解空間。在釐清這個分解空間後,那些信奉「苦澀的教訓」(bitter-lesson) 的算力分配,將會轉向訓練模型以執行正確的分解。

你我並非優秀的管理者

值得探討一下語言模型的「管理不善」。

幾乎所有現代 Agent 支架 (scaffold) 都是由人類設計、針對特定任務的分解策略,並使用語言模型來執行。這些系統依賴我們對於如何將單個語言模型呼叫組合起來以解決更大問題的直覺,且在面對不同模型與不同問題時往往顯得脆弱。其結果是產生了一系列多樣化的 Agent 支架,它們只能解決狹窄的問題,且必須頻繁更新,這導致我們對語言模型在任何給定時間「實際」有多強大產生了誤解。舉例來說,前沿語言模型真的無法以人類水準玩某些影片遊戲嗎?還是說只是因為我們還沒投入精力為它們建立一個良好的支架?

像 Claude Code 這樣的程式撰寫 Agent 是讓語言模型自身將問題分解為子任務,然後啟動子 Agent 來解決每個子任務的第一步。這些「編排者-子 Agent」(orchestrator-subagent) 系統——其中編排者 LM 輸出關於它將如何解決任務的粗略計畫,然後使用子 Agent 執行此計畫——已被證明在通用的類人工作流程(例如軟體工程)中運作得非常好。此外,事實證明,這些模型生成的計畫往往直觀且易於描述:模型不需要知道問題的確切解決方案,就能概述它將如何進行分解!

Claude Code、OpenClaw、Hermes Agent 等更通用支架的成功,表明 LM 完全有能力管理其他 LM 來解決更長時程的任務。此外,自然會有人問,「編排者-子 Agent」支架是否足以應對更長期的任務?近期如遞迴語言模型 (Recursive Language Models, RLM) 等研究,提出了一種更具表達力的機制,透過程式碼執行與遞迴子呼叫/工具作為函數來描述「計畫」,從而實現完全遞迴的任務分解。特別是,RLM 展示了將用於管理 LM 子呼叫的分解空間擴展到基於 API 的工具呼叫之外,是如何解鎖 LM 的長度泛化能力。

無論是 RLM、程式撰寫 Agent 還是尚未發現的系統,一個關鍵的未知數是:什麼才是正確的通用支架,能讓 LM 充分地管理 LM?

利用組合來繞過分佈外 (OOD) 問題

那麼我們接下來該往哪裡走,又該如何解決「管理不善」的問題呢?

首先,眾所周知,神經網絡語言模型存在泛化問題。不出所料,它們在泛化到更長長度(即上下文衰減,context rot)和低資源任務(例如在撰寫本文時,在 Blackwell 上編寫 GPU 核心)時,自然會遇到困難。

對「管理不善的天才」假說的一種解讀是:在前沿語言模型的「分佈內」(in-distribution) 範圍內,已經存在一個強大的通用「語言模型」系統,它可以解決那些其單個 LM 呼叫僅需處理分佈內輸入的 OOD 問題。基於我們對目前有效支架(如 Claude Code、RLM 等)的直覺,這大致涉及將任務分解為 LM 可以解決的子任務,其中「分解任務」這一行為本身,對 LM 而言也必須是一個「分佈內」任務!

更廣泛地說,組合是在一個足夠強大的基於學習的系統中,解決 OOD 任務的一種有效方式。具體而言,MGH 認為現代 LM 已經非常強大,但進一步訓練的成本過高,因此直接學習組合 LM 的運算子,比起繼續擴展當前的 LM,是達成這些 OOD 任務更有效率的策略。

假設 MGH 是正確的,我們認為在建立這些系統時有兩個主要的研究/工程方向:

  1. 定義「分解」。定義 LM 被允許表達的分解空間,對於確保單個 LM 呼叫保持在「分佈內」至關重要。我們如何定義「分解」,對於透過分解可解決的任務有著指數級(相對於深度)的影響。例如,在長上下文任務中,工具呼叫風格的子 Agent 會阻止根 LM 將上下文分解為任意數量的區塊,從而抑制了其擴展能力。在 RLM 中,分解空間被擴展,以便允許將分解有效地表示為任意數量的子任務(例如使用 for 迴圈),這突然使系統能夠處理近乎無限的上下文。同樣地,對分解空間的簡單擴展,加上遞迴的效應,可能會突然解鎖對近乎無限長時程任務的泛化能力、透過近乎無限的上下文學習進行自我改進等。

  2. 訓練與擴展組合能力。LM 需要被訓練以在任何支架下正確地分解任務,但正確的分解方式很可能已經存在於 LM 可以生成的分布中。舉例來說,我們檢視了具有 8 個針點 (needles) 的 MRCRv2 1M 上下文,這是前沿模型常用的長上下文基準測試。我們發現,雖然 RLM(Qwen3-4B-Instruct) 幾乎無法解決任何任務,但在一個顯著更簡單的設定(32k 上下文,1 個針點)上僅經過 RL 訓練後,它就能達到 100% 的正確率。儘管它是一個小模型,但它完全透過自身的演練學習到了能夠泛化的正確分解方式。

該假說的一個令人興奮的推論是,它暗示了模型在預訓練與中途訓練期間需要學習的大部分必要行為,很可能已經存在。給定一個設計完善且支援組合的支架(例如 RLM),透過引導 (bootstrapping) 訓練出這樣的系統,可能就足以引導出一個通用的任務解決系統。

語言模型已經發展到令人難以置信的強大程度,而創造像長時程求解器或自我改進系統這類酷炫事物的瓶頸,看起來有些荒謬(例如,長度泛化真的是瓶頸嗎?)。如果 MGH 是正確的,剩下的問題就是如何管理這些天才(當然,要加上護欄)。

致謝:感謝 Armando Solar-Lezama 與 Matthew Ho 提供的寶貴回饋。