# 策展 · X (Twitter) 🔥🔥🔥🔥

> 作者：Google DeepMind (@GoogleDeepMind) · 平台：X (Twitter) · 日期：2026-05-13

> 原始來源：https://x.com/GoogleDeepMind/status/2054246119635300451

## 中文摘要

Google DeepMind 以 AI 重新想像滑鼠指標介面。

Google DeepMind 發表實驗性示範，展示 AI 強化滑鼠指標如何在螢幕上無縫整合人工智慧，解決傳統 AI 需切換視窗的痛點，讓幫助隨處可用而不中斷工作流程。

**維持工作流程**

AI 功能應跨所有應用程式運作，避免強迫使用者「繞道」至額外 AI 工具。原型 AI 強化指標可在使用者所在位置直接提供幫助，例如：
- 指向 PDF 並要求「製作 email 的 bullet point 摘要」，直接貼入 email。
- 懸停表格並要求「製作餅圖」。
- 反白食譜並說「雙倍所有食材」。

**視覺與語意理解**

現有 AI 模型需精確指令，使用者須撰寫詳細提示。AI 強化指標透過「看見」游標下的內容，瞬間理解特定單字、影像或程式碼區塊，移除此負擔。

**擁抱「這」與「那」的自然語言**

現實中，人們不說長段落，而是指向並說「修復這個」（fix this）、「移到那裡」（move that）或「這是什麼意思」（what does this mean），依賴手勢與共享脈絡。結合指向與語音的 AI 系統，讓使用者以自然簡語完成複雜請求，無需繁瑣提示。

**像素轉化為可行動實體**

數十年來，滑鼠僅追蹤指向位置；AI 現在理解指向內容，將像素轉為結構化實體如地點、日期或物件，使用者可即時互動。例如：
- 潦草筆記照片變成互動待辦清單。
- 暫停的旅遊影片畫面變成餐廳預訂連結。
- 指向建築影像並說「顯示路線」。

**互動原則總結**

Google DeepMind 提出四項原則，將傳達脈絡與意圖的負擔從使用者轉移至電腦，用更直覺互動取代文字提示：
- **維持流程**：AI 無處不在，不中斷。
- **展示與敘述**（Show and tell）：指標捕捉視覺與語意脈絡。
- **擁抱「這」與「那」**：模擬人類自然簡語。
- **像素轉行動**：理解內容而非僅位置。

**產品應用與實驗環境**

這些原則正引導下一代介面設計，目前整合至 Chrome 與新「Googlebook 筆電體驗」。從即日起，使用者可在 Chrome 以指標向 Gemini 查詢網頁特定部分，例如反白產品要求「比較」，或指向客廳位置要求「視覺化新沙發」。Googlebook 即將推出「Magic Pointer」，讓使用者指尖即用 Gemini。更多概念將在 [Google AI Studio](https://goo.gle/49HqFeu) 測試，包括 Google Labs 的 Disco。文章作者 Adrien Baranes 與 Rob Marchant 於 2026 年 5 月 12 日發表，強調建構適應人類行為的技術，而非強迫使用者適應，讓 AI 協作感覺直覺、流暢、無縫。

**未來願景**

Google DeepMind 興奮這些「以人為本」概念正融入日常產品，重新定義滑鼠指標從追蹤位置進化為理解脈絡與意圖，開啟 AI 時代全新使用者介面。
