# 策展 · X (Twitter) 🔥

> 作者：Hanchen Li (@lihanc02) · 平台：X (Twitter) · 日期：2026-05-01

> 原始來源：https://x.com/lihanc02/status/2049912255077327181

## 中文摘要

# ICLR 2026 關於自我提升 AI 的反思

多虧了 UCB Sky Lab 的慷慨支持，我有幸參加了今年的 ICLR 2026。我在主會議上協助發表了 Agentic 上下文工程（Agentic Context Engineering），並在 Lifelong Agent 和 MemAgent 工作坊中進行了兩場口頭報告。因此，我的大部分體驗都圍繞著 Agent 記憶與持續學習。我寫這篇反思是為了總結我與其他研究人員交流後的心得。希望這篇部落格能引起讀者共鳴，且不會因為洩漏資訊而招致任何公司的法務團隊關切。

## 重新分類演進中的 Agent 或持續學習

![](https://pub-75d4fe1e4e80421b9ecb1245a7ae0d1a.r2.dev/curated/1777636284001-iaHHIgYk4aIAAApvyjpg.jpg)

隨著這些術語變得越來越熱門，它們的分類也變得愈發模糊，因為現在它們出現在許多不同類型的論文中。我相信其中許多研究實際上針對的是不同的使用情境，儘管它們在標題中都將自己描述為持續學習。

舉例來說，考慮兩種情境。第一種情境是，一個 Agent 試圖在像 Frontier CS repo 這樣困難的基準測試上解決特定任務。Agent 可以對其解決方案進行迭代，目標是在該特定問題上獲得更好的分數。第二種情境是，人們正在使用 ChatGPT，而我們試圖根據彙整後的追蹤紀錄來改進模型，以提高使用者留存率。直覺上，這兩種情境在資源限制和方法論上都有很大差異。然而，兩者仍然可以被描述為「演進中的智慧」。我們該如何透過觀察問題本身來區分它們呢？

我發現最令人滿意的分類標準是：當 Agent 在當前任務上進行自我提升時，它對未來任務做了多少假設。

在 OpenEvolve 風格的 Frontier CS 設定中，Agent 完全清楚它試圖解決的未來問題，因為那個未來問題就是同一個問題。這使得針對解決方案進行重複實驗變得特別有吸引力。在當前執行中累積的所有心得，都將直接適用於未來的執行。

在諸如 ACE、Combee 或 GEPA 等評估設定中，對未來知識的掌握僅限於問題類型；在更新過程中，完整的任務描述是不可用的。例如，我們可能會針對特定的 Agent 使用情境（如金融領域任務）進行訓練，以產生系統 Prompt。與前一種情況相比，這使得過度擬合（overfitting）成為一個真正的隱憂，但 Agent 不需要提升其通用的問題解決能力，它只需要適應特定類別的問題。

對於 Cursor 或 ChatGPT 為所有使用者更新模型檢查點（checkpoint）這種更通用的情況，情境又有所不同。關於未來任務，我們可能唯一能做的假設就是：使用者會持續詢問程式撰寫或個人助理類型的問題。這意味著在每個情境中產生的特定任務細節可能應該被省略，因為完全相同的任務不太可能重複出現。在這種情況下，更新權重可能是最有效的方法。

這三個例子顯示，如果我們明確說明對未來任務知識的假設，持續學習或自我提升 Agent 的問題就能更清晰地劃分為不同類別。這可以減少討論和同儕審查中的混淆。

## 演進中 Agent 的三大支柱：模型、harness 與環境

![](https://pub-75d4fe1e4e80421b9ecb1245a7ae0d1a.r2.dev/curated/1777636284199-iaHHIgVHBbMAIy3E8jpg.jpg)

在 MemAgent 工作坊後的一次對話中，另一位研究人員提出了一種思考 Agent 改進方向的實用方法：模型檢查點、harness 工程以及來自環境的回饋。那是一場簡短的討論，但我發現這三大支柱非常有說服力。我在這裡沿用了這個抽象概念，並填入了我的個人理解。

模型檢查點是 Agent 的基礎。它們就是運行在推論引擎上的基礎 LLM。

harness 和環境經常被放在一起討論，但檢索模型的改進很難被歸類為 harness 工程。因此，將它們分開是有用的。兩者的區別在於，harness 決定了輸入到模型檢查點的格式，而來自環境的回饋則決定了這些輸入的內容。例如，增加一個將技能整合到 Agent 中的步驟屬於 harness 工程，而決定如何檢索相關技能（例如透過 RAG）則屬於環境的範疇。

在許多情境下，harness 工程方法實際上是針對模型檢查點的補丁修復。例如，啟動順序子 Agent 的原因之一，是因為隨著 context window 增長，模型會變得健忘且效率低下。在一個循環架構運作完美的理想世界中，Agent 可以簡單地持續將文字輸入到模型中。如果模型能自行內化所有過去的經驗，我們就不需要像 ACE 這樣的方法。這些方法存在的現實本身，就暗示了我們目前的模型檢查點仍然缺乏這些能力。

遺憾的是，模型檢查點的更新速度遠慢於 harness 的變更。下一代模型能解決多少這些能力差距？我們必須等待前沿實驗室的成果才能知曉。但最終的格局看起來可能像是一個「元 harness (meta-harness)」，在模型再次更新權重之前，它能快速適應新模型。

另一方面，來自環境的回饋仍然是不可替代的。如果一個模型從未接觸過新聞，它就絕對無法回應新聞。

## 致謝

這篇部落格主要是在 Hanchen 從巴拿馬城飛回舊金山（SFO）的航班上寫成的。這一次，Claude Code 被鎖在網路虛空中。這裡的想法來自於我在會議中與人們的討論，包括但不限於 Idan、Benjamin、Yihao 和 Qizheng。

## 標籤

研究論文, Agent, 記憶系統, 教學資源, ICLR, UCB Sky Lab
