# 策展 · X (Twitter) 🔥🔥

> 作者：Viv (@Vtrivedy10) · 平台：X (Twitter) · 日期：2026-04-24

> 原始來源：https://x.com/vtrivedy10/status/2047702058749288885

## 中文摘要

上下文工程、注意力機制與每個 token 皆為下一個 token 的投票。

Viv 強調，上下文工程至關重要，因為 context window 是模型所有運算發生的關鍵邊界，而注意力機制中每個 token 皆像在為下一個 token 投票。

**注意力機制的核心洞見**  
在注意力機制中，每個 token 皆為下一個 token 投下一票，這雖顯而易見，但內化此觀念極為有用。我們組裝進 context window 的所有內容（如系統提示、工具描述、技能、子 Agent 定義等），皆在爭奪注意力片段。

**清晰上下文的優勢**  
當 context window 明確聚焦於任務並提供相關資訊時，模型更容易「走對路」（即預測正確的下一個 token）。反之，若 window 充斥無關或矛盾的上下文片段，模型須自行判斷何者重要，這會增加難度。

**長上下文的效能衰退**  
擁有大量技能或工具時，此問題更嚴重，因為模型在長上下文下的推理效能自然衰退（部分源於注意力在眾多 token 上數學性擴散）。這正是為何仍需精選任務導向的提示、技能與工具，而非將一切傾倒進 context window——後者雖簡單，卻會犧牲效能。

**解決策略**  
作者提出以下有效策略，避免效能損失：  
- **上下文隔離**：建構專注特定工作群組的範圍 Agent 或子 Agent。  
- **搜尋機制**：在獨立 context window 中搜尋合適技能與工具，避免主 window 雜亂（想像擁有 100 個技能的情境！）。  
- **避免衝突**：確保 window 內上下文無矛盾。模型須解析所有龐大文字塊並推理整合，預先整合成使用情境下的真實內容，能避免混亂（人類亦然）。

**反思與提醒**  
儘管 Agent 工程實務正蓬勃發展，上下文工程仍不可忽視。我們應退一步思考，模型如何內化我們注入的上下文管道，而非一味追逐新穎 Agent 實踐。

## 標籤

Skills, LLM, Agent, Anthropic, Claude
