# 策展 · X (Twitter) 🔥🔥🔥

> 作者：Rohit (@rohit4verse) · 平台：X (Twitter) · 日期：2026-05-04

> 原始來源：https://x.com/rohit4verse/status/2050968031493550202

## 中文摘要

使用 AI 沒有中立的方式。你要麼透過使用它變得更敏銳，要麼變得更空洞。大多數人正變得空洞，直到試圖在沒有 AI 的情況下工作時才會察覺。

作者透過親身經歷和研究證明，使用 AI 若不先進行獨立思考，會累積「認知債務」，導致大腦萎縮；反之，先思考再使用 AI，能放大自身能力。MIT 研究顯示，依賴 AI 寫作文的學生神經連結減弱，無法回憶自己作品，而先手寫再使用 AI 者，神經活性更強。作者警告，這是依賴陷阱，AI 會加速空洞化，除非改變使用順序。

**作者親身崩潰經歷**
三個月前，作者盯著自己六週前寫的程式碼，無法理解，只能求助 AI 解釋，這一刻如當頭棒喝。此前數月，他自認高效，卻發現閱讀程式碼的大腦部分開始關閉。接下來幾週，其他裂痕浮現：
- 面對問題前，手自動移向聊天視窗。
- 草擬推文後，本能按下 AI 潤色鈕。
- 讀論文摘要時，大腦拒絕處理，直接貼給摘要工具。
- 會議中遇策略難題，即想開筆電求助。
他忙於產出、發佈、獲利，卻忽略了真正的大腦肌肉——即靜坐面對難題三分鐘後給出真解答的那部分——已萎縮。他寫此文是因為險些未察覺，多數人也不會察覺，有些讀者讀後甚至會直接用 ChatGPT 摘要本文。

**MIT Media Lab 研究真相**
MIT Media Lab 論文病毒式傳播，社群熱議「AI 讓你變笨，比毒品糟」，但這解讀錯誤。論文本身正確，關鍵在於被忽略的第四階段。八位研究者用 EEG 監測 54 名大學生，四個月內進行三階段寫作：一組使用 ChatGPT、一組使用 Google、一組無工具。ChatGPT 組的神經連結在每階段皆減弱，第三階段多為複製貼上，無法引用自己剛寫的單行作文。作者稱此為「認知債務」：借用思考加速今日產出，利息會累積並損害未來的思考能力。
第四階段研究者互換工具：手寫組獲得 ChatGPT，AI 組移除工具。結果逆轉，手寫組在使用 AI 後，在 alpha、beta、theta 和 delta 腦波帶顯示出比任何 AI 組更高的神經連結，因為他們已有三個月的主題神經結構，能檢驗 AI 輸出；AI 組失去工具後崩潰，78% 無法引用自己作文的單行，僅 11% 正確。
核心發現：先獨立認知再使用 AI 能放大能力，先使用 AI 則會建立債務。手寫者有「預設模式網路 (default mode network)」結構可比對 AI 的近似錯誤；AI 使用者無此結構，無法辨識。AI 非中性，無結構的大腦使用 AI 只會加速「無」的建立。

**其他研究佐證**
CHI 2025 Microsoft Research 調查 319 名知識工作者、936 個真實職場 AI 案例，發現對 AI 的高信任度預測了較低的批判思考，努力從「產生工作」移向「驗證輸出」，導致判斷力在遇到例外時「萎縮且毫無準備」。2025 年底 RAND 調查顯示，67% 美國學生認為重度使用 AI 正在損害自身思考，比十個月前上升 10 個百分點。學生、研究者、AI 公司 CTO（無法讀懂自己程式碼）皆知情。

**依賴陷阱本質**
AI 並非獨特問題，而是舊模式的最新例證：過度依賴父母會變得決策無力；單一關係調節情緒會變得脆弱；單一工作定義身份會變得在裁員時崩潰。依賴是萬能的弱化劑。AI 的不同之處在於速度：週一外包思考，週五就能感到萎縮。表面上是生產力（多產、多賺、感能幹），代價卻是未來失去獨立完成的能力，等到察覺時已付出代價。作者在嘗試除錯自己的程式碼時察覺此點。解方：將其作為槓桿，拒絕讓它替換思考肌肉。

**常見錯誤：轉移認知**
2026 年的知識工作者多用 AI 讓相同的工作變得更容易：八小時的工作現在變成兩小時。他們將剩餘六小時花在 Twitter、Netflix 和研究者標記的「非認知活動」（即手機滑動）。思考的時間變空，認知被轉移給模型，時間則花在多巴胺上（滑動、影片迴圈、看陌生人煮飯三小時）。陷阱在於：4 倍的生產力應該用來做 4 倍多的工作或 4 倍難的挑戰。若將八小時壓縮至兩小時且產出不變，自己就變得更容易被取代。
CTO 若用 Claude Code 將一年的工作壓成一季，再用省下的九個月解決更難的問題，價值每季提升；若省下時間只用來滑手機，就變得與任何會下 Prompt 的人無異。同工具兩種結局：再投資認知或花在多巴胺上，沒有第三種選擇。

**實戰原則 1：先思考，後 Prompt**
作者三個月內逆轉崩潰並重建迴圈。MIT 最實用的發現是：第四階段的手寫組先建立了三個月的能力，使用 AI 時才有高參與度。轉化到你的工作：非瑣碎任務前，花 10 分鐘產出粗略答案、寫出爛版本、列出困惑、陳述猜想及理由。拿筆寫作有助於避免滑向聊天視窗。然後再開啟對話進行對抗。每日 15 分鐘的代價，能讓大腦留在迴圈中，而不是變成游標。

**實戰原則 2：強迫 AI 反對**
語言模型經 RLHF 訓練，優化為討好使用者，驗證你的想法學不到東西。解法：在 Prompt 中建立對抗框架。要求模型找出你所寫的三個最弱主張、鋼鐵人式（steelman）論證你反對的立場、預測最毀滅性的反例。作者存有四個 Prompt 片段，如：「細讀此文。找出單一最弱主張，引用並解釋為何弱。找出我用來隱藏缺口的修辭手法。要具體。不要客氣。」首次嚴格使用時，挖出了兩個未察覺的假設，其中一個是支撐點，整個論點崩塌，重寫後變成了新知。模式持續：輸出變銳利，理解也變銳利。不同之處在於學習，同意只是昂貴的拍馬屁。

**實戰原則 3：反轉流向，向 AI 解釋**
多數人用 AI 當老師，反轉過來更有用：讓 AI 當聽眾。費曼學習法有效，因為解釋會逼迫大腦填補空隙。閱讀清晰的解釋不會產生相同效果，只會產生熟悉感，感覺像是懂了，其實不然。挑選一個你以為懂的概念，向 AI 解釋，把它當成一個聰明但會問尖銳問題的 12 歲小孩。讓 AI 找出你解釋中模糊、含糊、跳步的地方，並評分清晰度、準確性、完整性，每項給出一個具體理由。禁止 AI 先給正解，先審核你的。生成爛解釋的不適感是「必要難度 (desirable difficulty)」，錯誤的嘗試會預先調整大腦以編碼正確版本。跳過錯誤嘗試，就跳過了編碼過程。

**實戰原則 4：驗證載重主張**
Microsoft 的研究發現，AI 使用者將努力轉移到驗證輸出，卻僅憑「感覺」驗證。挑選 AI 回答中三個主張（若錯誤會改變決策的），開啟原始來源閱讀以確認或推翻。作者曾寫關於 embedding 模型效能的文章，AI 自信引用舊論文的舊版基準數據，20 分鐘的來源檢查救了他，避免發表錯誤數據。此步驟花 20 分鐘，卻能保護大腦辨識「自信且正確」與「自信且錯誤」的能力，這是使用該工具時最重要的能力。

**實戰原則 5：關閉 AI 進行合成**
無論 AI 協助了什麼，最終產出的東西（結尾段落、commit 訊息、計畫），請關閉視窗，憑記憶、用自己的話寫。這點不可談判。這是工作成為你自己的時刻，無論在法律意義還是認知意義上。經由 AI 寫出的東西只是經過你，由自己大腦寫出的東西才會成為結構的一部分。作者曾用 Claude 草擬公司策略文件，精簡結構，但關閉視窗後，憑記憶寫執行摘要卻錯了三處。Claude 的結構從未進入腦中，他只是打字員。重按此文協議，大腦全程參與，產出雖短但屬於自己，三週後仍能引用。不能無 AI 寫合成，代表未學會，AI 只是做給你看，請回到原則一。

**關於 AI 時代的兩類人**
LLM 時代四年，人分兩類。第一類用 AI 讓相同工作更容易，省時舒適，輸出相同但能力蝕，經濟地位年年惡化，因為所做工作年年廉價可替。他們變得「感產變替」：沒有 Cursor 就無法開發、沒有 ChatGPT 就無法草寫、沒有 LLM 就無法思考。能做但不能獨，工具成了認知的替代品。
第二類用 AI 嘗試以前不可能的事，省下認知投入難題深技，輸出提升且能力複利，年年難以取代，因為他們做的是以前做不到的事：獨創 50 人隊伍的產出、閱讀三倍論文進行跨域整合、維護一套現代架構。
同工具結局不同，這是一場全遊戲。作者讀不了自己的程式碼，選擇回到第二類，將 AI 當陪練而非替代。無 AI 輔助時，你敏銳或鈍化，順序決定一切：先大腦後 Chat。初期慢：AI 30 分鐘任務加思考回饋需 45 分鐘，長期看 45 分鐘產出聰明人，30 分鐘產出空洞游標。複利雙向，你選。作者重建中，除錯回歸、策略銳於去年，日練產出速度相同，但人已不同。此為唯一計。

## 標籤

產業趨勢, AI
