# 策展 · X (Twitter) 🔥🔥🔥🔥

> 作者：宝玉 (@dotey) · 平台：X (Twitter) · 日期：2026-05-01

> 原始來源：https://x.com/dotey/status/2050014278019588405

## 中文摘要

# Demis Hassabis：AGI 還缺什麼，Agent 到底行不行，下一個科學突破長什麼樣

Demis Hassabis 是 Google DeepMind 的 CEO，也是 Isomorphic Labs 的 CEO。他在棋手神童和遊戲開發者的身份之外，拿了認知神經科學的博士學位，研究海馬體和記憶的工作方式。2024 年，他因為 AlphaFold 的工作獲得諾貝爾化學獎。

這次他做客 Y Combinator 的 How to Build the Future 直播，和 YC CEO Garry Tan 聊了四十分鐘。幾個核心話題：當前 AI 範式距離 AGI 還差什麼、Agent 的真實水平、AI 在科學領域的突破模式，以及給深科技創業者的建議。

![](https://pub-75d4fe1e4e80421b9ecb1245a7ae0d1a.r2.dev/curated/1777635830073-iaHHMViCXXsAEVH3Ljpg.jpg)

原始影片：https://www.youtube.com/watch?v=JNyuX1zoOgU

原始標題：Demis Hassabis: Agents, AGI & The Next Big Scientific Breakthrough

## 要點速覽

- Hassabis 認為當前範式（預訓練 + RLHF + 思維鏈）會是 AGI 架構的一部分，但有 50% 的機率還需要一兩個尚未發現的關鍵突破，持續學習、長程推理和記憶是三個未解問題。
- 百萬 token 上下文視窗聽起來很大，但處理即時影片時只夠錄 20 分鐘，當前把所有東西塞進上下文視窗的做法是「用膠帶糊住的臨時方案」。
- AlphaGo 和 AlphaZero 時代的技術（蒙地卡羅樹搜尋等）正在被重新引入當代基礎模型，Hassabis 認為未來幾年的進步將大量來自這些舊想法的規模化應用。
- 他用下棋來測試 Gemini 的推理能力，發現模型會識別出一步是錯棋，找不到更好選擇後又回去走那步錯棋，這種「缺乏自省」是當前推理系統的核心缺陷。
- 創造力的真正測試是能否從一段高層描述中發明圍棋這個遊戲本身，AlphaGo 下出 Move 37 級別的創造力還遠遠不夠。
- 完整虛擬細胞大約還需要 10 年，關鍵瓶頸是無法在不殺死細胞的情況下對活細胞進行奈米級解析度成像。
- 他給創業者的建議：如果你的 AGI 時間線是 2030 年，深科技創業通常需要 10 年，那 AGI 會在你旅程的中途出現，你的商業計畫必須把這個因素算進去。

## 【1】AGI 還缺一兩塊拼圖，機率 50/50

Garry Tan 開場問：當前的 AI 範式，大規模預訓練、RLHF、思維鏈，這些東西裡已經包含了多少 AGI 的最終架構？還有什麼根本性的缺失？

![](https://pub-75d4fe1e4e80421b9ecb1245a7ae0d1a.r2.dev/curated/1777635830031-diaHHMVlNaWoAAHQbjpg.jpg)

Hassabis 的回答比較謹慎。他說當前這些組件「幾乎可以確定」會是 AGI 最終架構的一部分，走到今天這一步已經證明了太多東西，不可能突然發現這是一條死路。但在已有的東西之上，可能還需要一兩個大想法。

他列出了三個未解問題：持續學習（continual learning，即模型在部署後持續從新經驗中學習的能力）、長程推理，以及記憶的某些方面。這些問題也許能靠現有技術的漸進式創新解決，也許需要全新的方法。

他給出了一個有意思的機率判斷：50/50。一半機率是現有技術足夠，另一半機率是還缺一兩個關鍵突破。Google DeepMind 兩邊都在押注。

## 【2】記憶：百萬 token 上下文其實不夠用

話題自然轉到了記憶和上下文視窗。Garry Tan 提到現在的系統每次處理都是無狀態的，持續學習缺失的情況下，大家都在用「夢境循環」（定期批次更新）這類臨時方案。

![](https://pub-75d4fe1e4e80421b9ecb1245a7ae0d1a.r2.dev/curated/1777635830037-iaHHMVoA2WEAAJ0uKjpg.jpg)

Hassabis 對這個話題有獨特的發言權。他的博士研究就是海馬體如何將新知識優雅地整合進已有的知識庫。大腦在睡眠（特別是 REM 快速動眼期）中回放重要的經歷片段來鞏固學習，DeepMind 最早的 Atari 遊戲 AI 程式 DQN 就借鑒了這個機制，用「經驗回放」（experience replay）反覆重放成功的遊戲軌跡來加速學習。

> 我們現在的做法有點像用膠帶糊住，就是把所有東西都塞進上下文視窗。
（“We're kind of using duct tape right now—shove it all in the context window.”）

他接著解釋為什麼這個方案不夠好。百萬 token 上下文視窗聽起來很大，人類的工作記憶平均只有 7 個數字左右，而 AI 有百萬甚至千萬級別的上下文。但問題是，我們把所有東西都扔進去了，不管重要不重要、對不對。更關鍵的是，如果你要處理即時影片流，天真地錄入所有 token 的話，百萬 token 其實只夠 20 分鐘。如果你想讓系統理解你一兩個月的生活，遠遠不夠。

即使儲存空間無限，找到當下決策真正需要的那條資訊，這個搜尋成本也是不可忽視的。Hassabis 認為記憶領域還有很大的創新空間。

## 【3】AlphaGo 的技術遺產正在復活

Garry Tan 追問 DeepMind 在強化學習方面的歷史積累，AlphaGo、AlphaZero、MuZero 這些系統背後的哲學在今天建構 Gemini 時發揮了多大作用。

![](https://pub-75d4fe1e4e80421b9ecb1245a7ae0d1a.r2.dev/curated/1777635830067-iaHHMVrZxXkAANUaUjpg.jpg)

Hassabis 說強化學習的重要性「在起伏中輪迴」。DeepMind 從創立第一天起就在做 Agent，Atari 遊戲 AI 和 AlphaGo 說到底都是 Agent 系統，能自主設定目標、做決策、制定計畫。當時選擇遊戲領域是為了讓問題可控，然後逐步挑戰更複雜的遊戲，比如 AlphaGo 之後又做了星海爭霸（AlphaStar）。

過去幾年的核心問題是：能否把這些模型從遊戲推廣到語言和世界模型？而今天所有前沿模型的思維模式和思維鏈推理，其實都可以追溯到 AlphaGo 時代開拓的路徑。

他透露了一個值得關注的資訊：Google DeepMind 正在重新審視當年的一些舊想法，包括蒙地卡羅樹搜尋（Monte Carlo tree search）等方法，在當今基礎模型的規模上重新應用。他認為未來幾年 AI 的很多進步將來自於 AlphaGo 和 AlphaZero 時代的想法與現代基礎模型的結合。

## 【4】小模型在快速變聰明

Garry Tan 觀察到蒸餾技術讓小模型越來越接近前沿模型的能力，Flash 模型大約能達到前沿模型 95% 的水平，成本只有十分之一。他問蒸餾有沒有極限。

![](https://pub-75d4fe1e4e80421b9ecb1245a7ae0d1a.r2.dev/curated/1777635830049-iaHHMVvGqWkAAZOOBjpg.jpg)

Hassabis 說這是 Google DeepMind 的核心優勢之一。他們當然要建最大的模型來推動能力邊界，但快速把這些能力壓縮到更小模型中是他們的強項。Google 有十幾個十億使用者級的產品，搜尋的 AI 概覽和 AI 模式、Gemini 應用、YouTube、Maps，每一個都需要 AI 服務。幾十億使用者需要極快、極高效、低延遲的服務，這種商業壓力反過來成了技術進步的引擎。

關於蒸餾的理論極限，他說目前沒有看到任何資訊密度的硬性天花板。他們的工作假設是：前沿模型發布半年到一年後，同等能力就會出現在邊緣級小模型上。

他還提到了一個架構設想：未來可能是高效的本地模型處理日常任務（比如音訊和影片流），只在特定情況下才呼叫雲端的前沿模型。這種「本地 + 雲端」的分層架構對隱私和安全特別有意義，尤其是考慮到家用機器人等場景。

## 【5】Gemini 下棋暴露的推理缺陷

Garry Tan 接著問推理能力：模型能做出很厲害的思維鏈推理，但在聰明大學生不會犯的錯誤上翻車。

![](https://pub-75d4fe1e4e80421b9ecb1245a7ae0d1a.r2.dev/curated/1777635830043-iaHHMVyKkWMAAdkovjpg.jpg)

Hassabis 認為當前的思維範式還很粗糙，有很大的創新空間。比如可以監控思維鏈的進展、在推理過程中途介入糾正。他經常覺得這些系統在「過度思考」，陷入某種循環。

他舉了一個具體的例子。他有時會用 Gemini 下棋，所有前沿基礎模型在遊戲上都表現很差，但這恰好提供了一個有趣的觀察視窗。因為棋局的規則是確定的，他能很快判斷模型的思維鏈是否在走彎路。

他觀察到的現象是：模型考慮某一步，意識到這步是臭棋，但找不到更好的，於是繞了一圈又回到那步棋，然後走了出去。

> 在一個真正精確的推理系統裡，你不應該看到這種情況。
（“You just shouldn't be seeing that happening in a very precise reasoning system.”）

這就是他所說的「鋸齒狀智慧」（jagged intelligence）：一方面能解國際數學奧林匹亞（IMO）金牌級別的問題，另一方面換個提問方式就會犯基本的算術錯誤。在他看來，這種不一致說明系統缺少某種對自身思維過程的「自省」能力。但他也補充說，修復這種缺陷可能只需要一兩個關鍵調整。

## 【6】Agent：實驗階段，投入產出比還沒對上

Garry Tan 問 Agent 是炒作還是剛剛開始。Hassabis 的回答是：剛剛開始，但還在實驗階段。

![](https://pub-75d4fe1e4e80421b9ecb1245a7ae0d1a.r2.dev/curated/1777635830055-diaHHMV2GOWYAApH1jpg.jpg)

他的論點是：要達到 AGI，你必須有一個能主動解決問題的系統，Agent 就是通向 AGI 的路徑。但目前，Agent 在「完整任務」上還不夠好，主要是因為它們不能在具體使用環境中持續學習和適應。缺乏持續學習是 Agent 無法做到「交付後不管」（fire and forget）的根本原因。

他還提到了 a 個耐人尋味的觀察：

> 我看到很多人啟動幾十個 Agent 跑 40 個小時，但我不確定產出能匹配這種級別的投入。
（“I see a lot of people working on setting off dozens of agents for like 40 hours, but I'm not sure I've seen the output that yet quite justify that level of input going in.”）

最近兩三個月，人們才開始找到 Agent 真正有價值的使用場景，不再是「玩具展示」而是真正增加效率的工具。

## 【7】半小時做出 Theme Park，但爆款在哪？

談到創造力和憑感覺程式撰寫（vibe coding），Hassabis 給出了一個令人印象深刻的對比。

![](https://pub-75d4fe1e4e80421b9ecb1245a7ae0d1a.r2.dev/curated/1777635830000-iaHHMV48lWkAA4ObDjpg.jpg)

> 我現在半小時就能做出 Theme Park 的原型，而我 17 歲的時候花了 6 個月。
（“I can do a prototype of Theme Park in half an hour now, which took me 6 months back when I was 17.”）

【註：Theme Park 是 Hassabis 在 1994 年參與開發的模擬經營遊戲，全球銷量超過 1500 萬份。】

但他馬上接了一個更有意思的觀察：如果工具已經這麼強了，為什麼還沒有一個憑感覺程式撰寫做出來的爆款遊戲賣出 1000 萬份？

他覺得缺的東西可能跟「craft 和 soul」有關，某種人類的品味和執著。工具降低了執行門檻，但創造力本身還沒有被替代。他預計 6 到 12 個月內，應該會看到有人用這些工具做出真正有影響力的作品，最先出現的不會是完全自主的 AI 創作，而是這個房間裡的某個人用 AI 工具實現了 1000 倍的生產力。

然後他把話題推到了一個更深的層面。AlphaGo 第二局的第 37 手（Move 37）是一個讓人類棋手震驚的創造性落子，Hassabis 當時看到這步棋後確信可以啟動科學專案，從首爾回來的第二天就啟動了 AlphaFold 專案。

但他說，Move 37 級別的創造力還不夠。

> 下出 Move 37 還不夠。關鍵是能不能發明圍棋。
（“It's not enough to come up with Move 37. Can it invent Go?”）

他設想給系統一段高層描述：「一個 5 分鐘能學會規則、但需要窮盡一生去精通的遊戲，美學上很優雅，一局可以在一個下午完成」，然後看系統能不能返回一個像圍棋這樣的東西。今天的系統做不到這一點。

## 【8】Gemma 開源背後的戰略計算

切換到開源話題。Hassabis 說 Google DeepMind 一直是開放科學的倡導者，AlphaFold 完全免費開放就是例子。Gemma 系列的目標是在同等參數規模下做到世界領先。

![](https://pub-75d4fe1e4e80421b9ecb1245a7ae0d1a.r2.dev/curated/1777635830081-diaHHMV8nXUAAobI9jpg.jpg)

他提到了一個有意思的地緣考量：

> 也很重要的一點是，開源裡要有西方棧。中國模型很多都很出色，目前在開源裡領先。
（“It's important for there to be Western stacks on open source. A lot of the Chinese models are excellent, and they're currently leading in open source.”）

開放邊緣模型還有一個務實的理由。Google 需要在 Android、眼鏡、機器人等設備上執行模型，一旦部署到設備端，權重本來就暴露了。既然如此，不如直接完全開放。他們已經決定在「Nano 級別」統一採用開源策略。

## 【9】多模態的長期賭注

Garry Tan 在採訪前向 Hassabis 演示了他自己用 Gemini 搭建的語音助手（類似電影《Her》中的 Samantha），他評價 Gemini 在語音直接對接模型方面的深度和工具呼叫能力是目前所有模型中最好的。

![](https://pub-75d4fe1e4e80421b9ecb1245a7ae0d1a.r2.dev/curated/1777635830023-diaHHMVRbXcAAp8Jhjpg.jpg)

Hassabis 說這是 Gemini 一個「還沒被充分認識到」的優勢。Gemini 從一開始就按多模態方式訓練，初期這比只專注文字要困難得多，但長期收益正在顯現。比如 Genie（Google DeepMind 的世界模型產生器）就建立在 Gemini 的多模態能力之上，對機器人領域很關鍵。Waymo 已經在使用 Gemini 相關技術。

未來的數位助手，無論是在手機、眼鏡還是其他設備上，都需要理解周圍的物理世界和直覺物理。這正是 Gemini 系列模型的強項。

## 【10】推理永遠不會免費

Garry Tan 問：當推理成本趨近於零時，會發生什麼？

![](https://pub-75d4fe1e4e80421b9ecb1245a7ae0d1a.r2.dev/curated/1777635830087-iaHHMWCPhWAAA1oTQjpg.jpg)

Hassabis 的回答是：推理可能永遠不會真正免費。他引用了傑文斯悖論（Jevons' paradox）：當某種資源的使用效率提高時，需求反而會增加，最終消耗掉所有效率收益。

【註：傑文斯悖論最早由經濟學家 William Stanley Jevons 在 1865 年提出，原始語境是煤炭。蒸汽機效率提高後，煤炭消費量不降反升。】

他設想了幾種「吃掉」所有推理算力的方式：百萬級 Agent 集群協同工作、單個 Agent 在多個方向上並行思考然後綜合結果。即使透過可控核融合或超導等材料科學突破將能源成本降到接近零，晶片的物理製造仍然是瓶頸。至少在未來幾十年內，推理端仍然會有配額限制。

## 【11】虛擬細胞：10 年後的目標

Garry Tan 問：AlphaFold 3 已經超越了蛋白質，擴展到更廣泛的生物分子。距離模擬完整的細胞系統還有多遠？

![](https://pub-75d4fe1e4e80421b9ecb1245a7ae0d1a.r2.dev/curated/1777635830046-iaHHMWFWeXgAAtRnAjpg.jpg)

Hassabis 先說了 Isomorphic Labs 的進展。這家從 DeepMind 剝離出來的公司正在把 AlphaFold 之外的相鄰生物化學和化學領域也做起來，設計具有正確性質的化合物。他說「很快會有重大公告」。

他認為完整的虛擬細胞大約需要 10 年時間。目前 DeepMind 的科學團隊從虛擬細胞核開始做起，因為細胞核相對自包含。這類問題的關鍵是：能否從複雜性中切出一個足夠自包含的片段，近似處理其輸入輸出，然後專注於這個子系統。

最大的挑戰是資料不足。如果能在不殺死細胞的情況下對活細胞進行奈米級解析度成像，問題就變成了一個視覺問題，「我們知道怎麼解決視覺問題」。但目前他不知道有任何成像技術能同時做到奈米解析度和對活細胞無損。靜態影像的解析度已經很高了，但缺少動態資訊。

所以有兩條路：一條是硬體驅動、資料驅動，等待成像技術突破；另一條是建模方式，建構更好的動態系統學習模擬器。

## 【12】AI 是科學的終極工具

Garry Tan 問他在所有科學領域中最看好哪個。Hassabis 沒有直接排名，而是說這一直是他做 AI 的核心動力。

![](https://pub-75d4fe1e4e80421b9ecb1245a7ae0d1a.r2.dev/curated/1777635831047-iaHHMWId8XEAAxNQTjpg.jpg)

> DeepMind 的使命分兩步：第一步解決智慧，也就是建構 AGI；第二步用它解決其他所有問題。
（“Step one was solve intelligence, i.e., build AGI, and then step two was use it to solve everything else.”）

他說這個「解決其他所有問題」後來要改措辭，因為人們會問「你真的是說『所有問題』嗎？」。確實是的。

他提到了一個概念：「根節點問題」（root node problems），指那些一旦解決就能打開全新研究分支的科學難題。AlphaFold 就是典型例子。目前全球超過 300 萬研究人員在使用 AlphaFold，他從製藥界的高管朋友那裡聽到，「從現在起幾乎每一種新藥的發現過程都會用到 AlphaFold」。

他覺得其他領域，材料科學、氣候建模、數學，目前大約處於「AlphaFold 1 的階段」，結果很有前景但還沒有真正解決該領域的大挑戰。未來幾年會有很多進展。

## 【13】AlphaFold 式突破的三個條件

Garry Tan 問：什麼樣的科學問題適合 AlphaFold 式的突破？有沒有一個模式？

![](https://pub-75d4fe1e4e80421b9ecb1245a7ae0d1a.r2.dev/curated/1777635830076-iaHHMWLRyWQAAYNlkjpg.jpg)

Hassabis 說他應該把這個寫下來。從 AlphaGo 和 AlphaFold 的經驗中，他總結出三個條件：

1. 第一，巨大的組合搜尋空間，越大越好，大到暴力搜尋或特殊演算法都無法解決。圍棋的合法走法和蛋白質的可能構型都遠超宇宙中原子的數量。
2. 第二，清晰的目標函數。蛋白質摺疊可以看作最小化自由能，圍棋就是贏。你需要能定義「什麼是好的」，這樣才能爬坡。
3. 第三，足夠的資料，或者一個能產生大量同分布合成資料的模擬器。

如果這三個條件成立，現有的方法就能在「大海撈針」式的搜尋中走很遠。藥物發現也是一樣的架構：總有一個化合物能治這種病，沒有副作用，只要物理定律允許它存在，剩下的問題就是如何高效地找到它。

## 【14】「愛因斯坦測試」：AI 能做真正的科學發現嗎？

Garry Tan 把話題推到了更高的抽象層面：AI 能做真正的科學推理，還是只是在做模式匹配？

![](https://pub-75d4fe1e4e80421b9ecb1245a7ae0d1a.r2.dev/curated/1777635830027-diaHHMWOOWAAIfrm0jpg.jpg)

Hassabis 說他覺得很接近了。Google DeepMind 有 Co-Scientist 這樣的通用科學推理系統，也有 AlphaEvolve 這類在基礎 Gemini 之上增加能力的演算法。但坦白說，他還沒有看到任何一個真正的「重大發現」。

他認為這與之前討論的創造力問題相關。真正的發現超越了模式匹配（因為沒有現成的模式可以匹配），也超越了簡單的外推。他把它稱為「類比推理」（analogical reasoning），認為當前系統還不具備這種能力，或者至少沒有以正確的方式使用。

他用了一個遞進的方式來說明這個挑戰。首先，能否解決已有的數學難題？比如千禧年難題（Millennium Prize Problems，數學界懸賞每題 100 萬美元的七大未解問題）。他覺得可能只需要幾年。他個人最想看到的是 P=NP 問題的解決。

但比解決千禧年難題更難的是：能否提出一組新的千禧年級別的問題，讓頂級數學家認為它們同樣深刻、值得一生去研究？

然後他提出了他的「愛因斯坦測試」。

> 用 1901 年的物理學知識訓練一個系統，然後看它能不能做出愛因斯坦 1905 年做的事情，包括狹義相對論。
（“Can you train a system with the knowledge of physics of 1901, and then will it come up with what Einstein did in 1905, including special relativity?”）

【註：1905 年被稱為愛因斯坦的「奇蹟年」（annus mirabilis），他在這一年發表了四篇劃時代論文，涵蓋光電效應、布朗運動、狹義相對論和質能等價（E=mc²）。】

一旦通過這個測試，就意味著系統具備了發明真正新事物的能力。他認為應該反覆跑這個測試，看系統什麼時候能做到。

## 【15】給創業者的建議：把 AGI 算進你的商業計畫

最後一個話題是給創業者的建議。Hassabis 先回應了 Garry Tan 之前的提問：「如果你坐在 YC 創業者的位置上，你會怎麼做？」

![](https://pub-75d4fe1e4e80421b9ecb1245a7ae0d1a.r2.dev/curated/1777635830070-iaHHMWRa2XQAAka7kjpg.jpg)

他的核心建議是找到 AI 與另一個深科技領域的交叉點。材料科學、醫學、或者任何涉及物理世界原子的硬科學問題。這類跨學科團隊，特別是涉及物質世界的，在可預見的未來不會被基礎模型的下一次更新輕易取代，是最具防禦性的創業方向。

然後他提出了一個更具體的時間規劃問題。如果你的 AGI 時間線是 2030 年，而真正的深科技創業通常需要 10 年，那 AGI 會在你旅程的中途出現。這件事不一定是壞事，但你必須把它考慮進去。你的系統能利用 AGI 嗎？AGI 出現後你的產品會怎樣？

他給出了一個有價值的架構判斷：未來不會是一個包含所有能力的巨大通用模型。更可能的架構是通用模型（Gemini、Claude 等）呼叫 AlphaFold 這樣的專用系統作為工具。如果把蛋白質摺疊的知識直接塞進 Gemini，「那肯定會影響它的語言能力」。這種「通用編排器 + 專用工具」的架構意味著，做好一個垂直領域的專用系統在 AGI 時代依然有巨大價值。

> 追求困難的問題和追求簡單的問題，難度其實差不多。只是難的地方不一樣。
（“Going after hard problems is no more difficult than going after a shallower, simpler problem. They're just differently difficult.”）

他用自己的經歷收尾。2010 年創辦 DeepMind 時，投資人告訴他「AI 我們試過了，不行」。學術界也認為 AI 是 90 年代就被證偽的邊緣學科。但他從很年輕的時候就決定了要做 AI，因為這既是他能想到的最重要的事，也是最有趣的事。即使今天 AI 還沒成功，他也會在某個車庫裡繼續做下去。

Hassabis 同時在做兩件事：建前沿模型（Gemini），用 AI 做科學（AlphaFold、Isomorphic Labs）。這讓他的判斷比純模型派或純應用派更有參考價值。他對 AGI 路徑的判斷，「可能還缺一兩個大想法」，比大多數行業聲音更克制。他對 Agent 投入產出比的質疑也值得注意，尤其是在 Google 自己也在大力推廣 Agent 產品的情況下。

接下來值得關注的幾個具體節點：第一，Agent 是否能在長週期任務中穩定學習和適應，而不是靠更長上下文硬撐；第二，AI for Science 是否出現新的 AlphaFold 式「根節點問題」突破；第三，AI 是否開始提出高品質的新問題，而不僅僅是更快解決舊題。Hassabis 所說的 AGI 中途到來，對深科技創辦人不是一句時間表判斷，而是一道架構題：你今天建的系統，到那時是被替換，還是成為 AGI 會主動呼叫的工具。

## Q&A 速覽

問：當前 AI 範式距離 AGI 還有多遠？
答：現有組件（預訓練+RLHF+ 思維鏈）會是最終架構的一部分，但有 50% 機率還需要一兩個關鍵突破。持續學習、長程推理和記憶是三個主要未解問題。Hassabis 的個人 AGI 時間線是 2030 年左右。

問：小模型會越來越聰明嗎？
答：是的。Google 的工作假設是前沿模型能力在半年到一年後可以下放到邊緣級小模型。蒸餾目前沒有遇到資訊密度的理論極限。

問：AI 能做真正的科學發現嗎？
答：還沒有。Hassabis 認為當前系統缺乏「類比推理」能力。他提出了「愛因斯坦測試」作為檢驗標準：用 1901 年的物理學知識訓練系統，看能否產出狹義相對論級別的發現。

問：深科技創業者該怎麼規劃？
答：找到 AI 和另一個硬科學領域的交叉點。把 AGI 可能在旅程中途出現這個因素納入商業計畫。專用的 AI 系統（如 AlphaFold）在 AGI 時代仍然有價值，因為它們會作為工具被通用模型呼叫。

問：為什麼還沒有憑感覺程式撰寫做出的爆款？
答：工具降低了執行門檻，但創造力本身，也就是 craft 和 soul，還沒有被替代。Hassabis 預計 6 到 12 個月內會出現用 AI 工具做出的有影響力的作品。

## 標籤

Agent, 產業趨勢, 研究論文, Google DeepMind, Isomorphic Labs, Y Combinator
