# 策展 · X (Twitter) 🔥🔥🔥🔥

> 作者：Andrej Karpathy (@karpathy) · 平台：X (Twitter) · 日期：2026-05-12

> 原始來源：https://x.com/karpathy/status/2053872850101285137

## 中文摘要

Karpathy 建議 LLM 以 HTML 結構輸出回應。

**HTML 輸出技巧**  
Karpathy 分享實用提示：在查詢結尾要求 LLM「以 HTML 結構你的回應」（"structure your response as HTML"），然後在瀏覽器中開啟生成的檔案，即可獲得優異效果。他也成功讓 LLM 以投影片（slideshows）等形式呈現輸出。這不僅比純文字更易讀，還能帶來更多彈性。

**人類與 AI 偏好模態**  
Karpathy 認為，音訊是人類偏好的 AI 輸入方式，但視覺（圖像、動畫、影片）則是 AI 偏好的輸出方式。人腦約三分之一是大規模平行處理的視覺專用處理器，宛如通往大腦的「10 車道超高速公路」。隨著 AI 進步，溝通介面將循序演進：  
1. 原始文字（閱讀艱辛費力）  
2. Markdown（粗體、斜體、標題、表格，稍易於眼睛閱讀）← 目前預設  
3. HTML（仍有底層程式碼的程序性，但圖形、版面配置甚至互動性大增）← 早期階段，但正形成新預設  
...4,5,6,...  
n. 互動神經影片／模擬  

**未來願景與技術推測**  
Karpathy 預測，這條演進路徑最終將止於「擴散神經網路直接生成的互動影片」。雖然技術尚未成熟，仍有諸多開放問題：如何將精確的「Software 1.0」人工製品（如互動模擬）與神經人工製品（如擴散網格）交織？但方向類似近期爆紅的影片示範，例如 [zan2434 的 X 貼文](https://x.com/zan2434/status/2046982383430496444) 。

**輸入端改進需求**  
輸入端也需進化，單一音訊、文字或影片皆不足。Karpathy 指出，他常需像與身旁真人互動般，在螢幕上指點或手勢比劃事物。這反映人類與 AI 間的「心靈融合」（mind meld）仍在進行，有大量工作待做、重大進展可期，遠早於 Neuralink 式腦機介面（BCI）。

**回應與共鳴**  
Thariq (@trq212) 回覆 Karpathy，表示很高興這技巧對他有效，並同意人類與 Agent 間溝通頻寬仍有極大提升空間。先進模型需擴增更多輸入／輸出模態，但更重要的是發揮創造力，在此領域有更多發揮餘地。

**TL;DR 熱門建議**  
Karpathy 總結：人類與 AI 的輸入／輸出融合正持續推進，短期內可試著要求 LLM 輸出 HTML，大幅改善體驗。

## 標籤

Skills, LLM, 教學資源, LLM, Andrej Karpathy
