# 策展 · X (Twitter) 🔥🔥

> 作者：Ashwin Gopinath (@ashwingop) · 平台：X (Twitter) · 日期：2026-05-11

> 原始來源：https://x.com/ashwingop/status/2053538351295426676

## 中文摘要

Contextmaxxing 優於 Tokenmaxxing：優質記憶勝擴容。

Contextmaxxing 強調為 AI 行動提供最大化相關脈絡，而非單純追求 tokenmaxxing 的無限消耗，這是企業 AI 成本曲線的必然轉向。作者批評 tokenmaxxing 僅測量輸入而非產出，預測其將如雲端資源般失控，呼籲從優化脈絡入手，避免重複重建已知狀態。

**Tokenmaxxing 的陷阱**

Tokenmaxxing 指透過自主 Agent 盡可能消耗 token 以最大化 AI 使用率，尤其在 Claude Code 和 Codex 等工具上（[Built In](https://builtin.com/articles/token-maxxing)）。[TechCrunch](https://techcrunch.com/) 尖銳批判：token 預算僅衡量輸入而非產出，將消耗視為生產力是荒謬的衡量方式。

工程領域首當其衝：編碼 Agent 長時間運行、檢查龐大程式庫、編輯檔案、測試、審核、重試，甚至衍生其他 Agent。Uber CTO 報告顯示，2026 年僅數月內，Claude Code 等 AI 編碼工具使用量即耗盡 AI 預算，迫使公司「從頭重來」重新規劃（[Yahoo Finance](https://finance.yahoo.com/)）。作者視此非 Uber 獨有失誤，而是企業成本曲線的早期預警，預期銷售、支援、財務、法律、客戶成功、招募與營運等領域將重演此模式。

作者部分認同燒 token 不等於創造價值，但駁斥「少用 token」為解方，這如同 2012 年勸企業少用雲端。Airbnb AI 客戶支援 Agent 已解決 40% 問題無需人工升級，Brian Chesky 形容 AI Agent 賦予公司更多軟體建置能力（[Benzinga](https://www.benzinga.com/)）。若工程師用 Claude Code 加速交付，他們就會用；支援 Agent 能多解票，公司就會推更多票過去。

**低效 token 消耗的根源**

優質執行燒 token 用於推理、撰寫、測試、審核與驗證；劣質執行則燒在重構組織已知脈絡：模型讀程式庫理解遷移原因、搜票單找客戶限制、讀 Slack 重建爭論、掃文件發現決策、重讀昨日 Agent 已讀的會議記錄，明日另一 Agent 再讀一次。這是假裝智慧的 token 支出，模型並未變聰明，僅反覆付費重建任務周邊缺失狀態。

Tokenmaxxing 的極限在於：可買更多嘗試，但無法永遠用蠻力繞過劣質脈絡。作者諷刺這是「token 支出假裝成智慧」，模型永遠無法從零 brute-force 出組織當前狀態。

**Contextmaxxing 的核心原則**

Contextmaxxing 從反向出發：非問「能用多少 AI」，而問「行動前能塞多少正確脈絡給 AI」。AI 系統價值受限於接收脈絡品質，一個有優質脈絡的普通 Agent，通常勝過有陳腐、不完整或錯誤脈絡的頂尖 Agent。

企業內難題鮮少是通用推理，而是知曉組織當前狀態：誰擁有決策？對客戶承諾了什麼？哪種方法已失敗？哪份文件過時？哪場會議改了計畫？哪張票單與路線圖矛盾？哪個支援問題成續約風險？哪條程式碼路徑因無人記得的客戶限制而存？更多 token 可助模型搜尋答案，但優質記憶讓答案在搜尋前即提供。

Contextmaxxing 非塞最大 prompt（那是 tokenmaxxing 的變裝），而是每 AI 行動最大化相關、經授權、證據支持的脈絡。相關性關鍵：非全塞一切，而是任務相關的先決決策、限制、擁有者、失敗嘗試、開放問題、承諾、矛盾與來源證據。有時 500 token，有時 5,000 token，有時是圖查詢、時間線、客戶追蹤、決策追蹤，或 Agent 可推理的緊湊狀態物件。

**記憶作為經濟基礎設施**

無記憶，每 Agent 從零開始，燒 token 問公司「你是誰、知什麼、決了什麼、當前任務為何重要」。有記憶，Agent 從狀態起步，將 token 花在判斷、執行與驗證，而非重發現。

Sentra 的語意檔案系統即實踐此道，非建更大 prompt，而是將互動、文件、票單、會議、程式碼、客戶對話與行動連結成語意層，為任務產生正確脈絡包。早期工作流中，類似任務的脈絡 token 使用量降 50 至 98%，有時數百 token 取代數萬 token。作者強調非為壓縮而壓縮，Agent 不該花昂貴認知記住公司已知之事。

近期檔案基記憶系統浪潮同理：Andrej Karpathy 的 [LLM Wiki](https://gist.github.com/karpathy/)主張 LLM 應逐步建置維護持久 wiki，取代查詢時取原始文件，隨時間彙整知識。Garry Tan 的 [GStack](https://github.com/garrytan/)描述 GBrain 為 AI Agent 的持久知識庫，跨會話維持記憶。「第二腦」社群多年圍繞此直覺：Obsidian 以本地 markdown 筆記、筆記間連結與圖視圖建構，助人看清自身知識關係（[Obsidian](https://obsidian.md/)）。

**企業記憶的挑戰與 Sentra 解方**

個人模式極適合創辦人、研究員或工程師維持私人 vault。但企業擴展是不同難度：記憶不再是個人私有脈絡，須跨組織共享、連結即時系統、依角色授權、基於來源、隨工作更新，並安全讓 Agent 讀寫。Sentra 過去一年「Company Brain」（EGI）工作即解決此層。

Karpathy、Garry Tan 與第二腦社群從實務痛點出發：多用 Agent 即感查詢時檢索讓模型重推導已該彙整知識。企業版提升門檻：記憶須成組織基礎設施，而非一人筆記資料夾。

**理論基礎與更大脈絡**

Sentra 從另一方向得出結論：《[The Geometry of Forgetting](https://arxiv.org/)》論證遺忘可從相似性檢索幾何本身浮現，非僅生物硬體。《[The Price of Meaning](https://arxiv.org/)》論證語意記憶系統有結構權衡：依意義組織助泛化，但也生干擾、遺忘與假回憶（arXiv）。

此指向相同架構：查詢時 RAG 不夠，記憶須預先彙整、結構化、維護、授權並供 Agent 行動前取用。諷刺的是，context window 正擴大，此問題卻更迫切。人們以為大視窗解問題，實則僅易塞更多無關物，瓶頸從「塞得下否」移至「何物屬此」。

雲端教訓：更廉價運算不除支出，反生更多使用。Token 價格即便跌，Agent 使用將更快膨脹。出路非小 AI，而是更嚴格脈絡紀律。

**未來指標與贏家預測**

下個有用指標非 token 使用量，而是每 token 有效脈絡，或每 token 驗證產出/工作。學會此的公司不會僅要員工多用 AI，而是建系統讓每 AI 行動從更近真相起步。

Tokenmaxxing 是 AI 原生工作第一階段，證明有用 AI 時人們會激進支出。Contextmaxxing 是下一階段，質疑那些 token 是否指向現實正確版本。

贏家非用最多 token 的公司，而是浪費最少 token 記住已知之事的企業。

Sentra 建「company brain」，共享智慧/記憶層涵蓋所有通訊管道、知識庫、行動與 Agent 追蹤，近即時建構公司完整活世界模型，理解組織實際運作與工作完成方式。

## 標籤

Agent, 產業趨勢, LLM, Claude, Codex
