# 策展 · X (Twitter) 🔥🔥🔥

> 作者：Google Research (@GoogleResearch) · 平台：X (Twitter) · 日期：2026-04-24

> 原始來源：https://x.com/GoogleResearch/status/2047630714145776053

## 中文摘要

Google 提出 Transformer 替代方案 MesaNet，透過線性序列層在固定記憶預算下最佳化情境內學習。

Google Research 在 #ICLR2026 發表全新 Transformer 替代架構「MesaNet」，由 Nino Scherrer 與 Yanick Schimpf 在 Google 攤位（#411）於上午 10 點示範，強調其線性序列層能在固定記憶預算下實現最佳情境內學習效能。

**MesaNet 核心創新**  
MesaNet 引入新型線性序列層，取代傳統 Transformer 機制，專為固定記憶預算設計，能夠高效學習情境內任務，避免 Transformer 在長序列上的記憶瓶頸。

**發表與示範細節**  
- 活動：#ICLR2026 會議  
- 講者：Nino Scherrer 與 Yanick Schimpf  
- 地點與時間：Google 攤位 #411，上午 10 點  
此舉彰顯 Google Research 在 Transformer 替代方案上的積極探索，挑戰既有架構的記憶限制。

## 標籤

研究論文, 活動發佈, Google, Google Research
