# 策展 · X (Twitter) 🔥🔥🔥🔥

> 作者：Gorden Sun (@Gorden_Sun) · 平台：X (Twitter) · 日期：2026-04-27

> 原始來源：https://x.com/Gorden_Sun/article/2048373641856077972

## 中文摘要

北大教授離職後直指中國AI差距拉大。

北京大學助理教授張驰離開字節跳動「Seed LLM」核心團隊後，在4月22日《Into Asia》播客中坦言，中國AI模型雖在基準測試刷出高分，但與美國差距非但未縮小，反可能擴大，他不同意「中國模型正在趕上」的論調。

**應試刷榜的虛假繁榮**  
大廠模型在Benchmark上分數創新高，看似神仙打架，實則內部是大型應試教育。張驰透露，字節跳動（推測其他大廠類似）工作氛圍佛系（每日約9小時，中午2小時午休），但隱性KPI壓力迫使團隊刷榜（Bench-maxing）。領導盯緊特定榜單，若模組未追平美國前沿模型，績效堪憂。結果紙面華麗，卻在真實複雜應用中拉胯，使用體驗令人抓狂。

**算力基建的深層鴻溝**  
硬件卡脖子導致迭代速度落後。國內大廠多用禁令前囤積的NVIDIA晶片或H20特供版，DeepSeek V4起全面轉用華為昇騰顯卡，有望完善國產訓練生態。張驰引业内傳聞：谷歌僅需3個月完成大語言模型預訓練加後訓練，國內大廠卻因算力規模與基礎設施限制，可能需半年。更隱秘差距在Infra：張驰谷歌實習經驗顯示，那裡底層基建絲滑，研究員只需在圖形介面寫程式碼；國內訓練常卡死報錯，摩擦成本拖慢追趕。

**數據飛輪斷裂的無解危機**  
美國GPT與Claude憑全球海量使用者建立正向循環，高價值使用者（如程式員、研究者）在工作中點讚或踩結果，提供珍貴真實場景訓練資料。中國因基礎能力差距，高價值使用者集體叛逃。張驰親承：「我現在主要用Claude Code和Cursor程式撰寫，甚至覺得無需招太多博士生，可視它們為學生，給指令讓它們做事。但我很矛盾，若這代人不培養新人，我老了誰接棒？」頂尖中國開發者轉用美國模型，導致國產大模型難獲優化程式撰寫與推理的高品質互動資料。

**蒸餾捷徑的長期枷鎖**  
面對基建未熟與KPI壓力，國內大廠靠「蒸餾」（Distillation）抄捷徑：直接問GPT、Claude或Gemini要答案與推理過程，複製餵自家模型。張驰坦言，中國蒸餾技術或世界頂尖，但難轉為長遠優勢。抄作業可從不及格變80分，卻永遠成不了學神，因缺乏自家深厚資料管道（Data Pipeline）。當美國模型自我進化，捷徑反成束縛原創能力的枷鎖。

**僅存優勢與具身智能的現實**  
張驰對純語言大模型追趕悲觀，但指中國製造業具結構優勢，如宇樹科技（Unitree）在硬件軀體、馬達運動控制領先全球。對於具身智能，若語言模型僅執行簡單任務（如抓取物體），現有中國大模型「夠用」。但他潑冷水：多數機器人廠商僅止於運動控制，未將智慧塞入大腦；遇複雜推理與泛化「靈巧操作」，將再撞大語言模型天花板。

**未來挑戰與一絲希望**  
晶片受限、資料管道薄弱、基礎設施落後、使用者回饋循環缺失、過度依賴蒸餾，這些疊加難靠單次突破解決。好在DeepSeek V4全面相容國產顯卡，雖整體能力落後，但生態完善後有望追趕，且不依賴蒸餾。原播客連結：https://www.buzzsprout.com/2546300/episodes/19057945-a-year-inside-bytedance-s-ai-lab

## 標籤

產業趨勢, Benchmark, LLM, ByteDance
