# 策展 · X (Twitter) 🔥🔥🔥

> 作者：Anthropic (@AnthropicAI) · 平台：X (Twitter) · 日期：2026-05-08

> 原始來源：https://x.com/AnthropicAI/status/2052385812881228218

## 中文摘要

Anthropic 推出「The Anthropic Institute (TAI)」研究議程，聚焦 AI 對經濟、安全、社會與自我研發的影響。

Anthropic 於 2026 年 5 月 7 日發布「The Anthropic Institute (TAI)」的研究議程，從前沿實驗室內部視角調查 AI 對世界的衝擊，並公開分享研究成果、資料與工具，以助外部組織、政府與公眾做出更好決策。TAI 強調，透過「Anthropic Economic Index」等工具觀察軟體工程等工作已劇變、內部經濟轉移、新威脅浮現，以及 AI 加速自身研發的早期跡象，目的是實現 AI 進步的最大益處，並影響 Anthropic 的長期利益信託 (LTBT) 決策。此議程為動態版本，將依據新證據調整，並歡迎回饋。

**經濟擴散 (Economic diffusion)**

TAI 致力理解日益強大的 AI 系統如何徹底改變經濟，並開發新工具（如強化「Anthropic Economic Index」）來追蹤「如何、何時、為何」發生變化，提供更高頻率、更細緻的勞動影響與 AI 使用資料，作為重大變革的早期警示。

- **AI 採用與擴散**：AI 開發集中於少數公司與國家，但部署全球化；探究國家、地區或城市存取 AI 的決定因素、經濟價值捕捉方式、政策與商業模式影響，以及免費或開源權重模型的角色。企業層面：AI 採用成因與後果、效率最佳規模變化、AI 使用集中度如何轉化為利潤率與勞動份額；若 3 人團隊能完成過去 300 人工作，產業組織將如何變動？大型企業是否因知識集中而擴張，並強化員工監控？
- **生產力與經濟成長**：AI 對創新與生產力成長率的影響；分享 AI 獲益的預先或再分配機制；AI 如何降低市場交易成本，代理協商是否提升效率與公平？
- **廣泛勞動市場影響**：「Anthropic Economic Index Survey」每月追蹤人們對 AI 影響工作的看法與預期，提供高頻細緻資料；AI 公司是否能如央行調整利率般，透過產業與政府合作，按產業控制 AI 擴散速率？
- **未來工作與職場**：工作者對職業變化的體驗與影響力；AI 吸收初級角色（如律師助理、初級分析師）任務後，如何培養資深專家？人們應修讀何種科目以因應未來？若 AI 降低有償工作的中心性，社會如何轉向其他意義來源？

**威脅與韌性 (Threats and resilience)**

AI 同時推進多領域能力，包括雙重用途 (dual-use) 能力，如「Claude Mythos Preview」作為最強程式碼模型，也提升網路安全能力；TAI 精煉評估雙重用途技術風險並減緩威脅的技巧，透過 [Project Glasswing](https://www.anthropic.com/glasswing) 等計畫強化全球韌性。

- **風險評估與雙重用途**：強大 AI 本質雙重用途（如提升健康教育卻助監控壓迫）；開發可觀測工具追蹤此現象；市場驅動方法定價 AI 威脅風險；AI 是否結構性利攻擊方（如網路與生物領域），或改變人類衝突性質？
- **風險緩解**：AI 危機情境需何種地緣政治基礎設施（如冷戰熱線的類比，可能公司對國家或公司間）；防禦機制（如自動修補、AI 威脅偵測）如何匹配 AI 進步的月級速度，而非數年規制？
- **監控能力**：AI 如何使監控更廉價或有效？

**AI 系統於野外 (AI systems in the wild)**

TAI 探究 AI 與人、組織互動如何重塑社會，透過軟體可觀測工具與大規模質性調查等，提出關鍵問題，如何設計 AI 介面促進人類主動性、法律如何規範自主 Agent，以及 Agent 間互動規範。 [相關討論](https://x.com/AnthropicAI/status/2047728360818696302?s=20)

- **對個人與社會影響**：大量人口使用少數模型時，群體知識論如何變化？測量信念、寫作風格、問題解決方式的 AI 歸因變動；AI 信任增加是否削弱人類批判思考？
- **管理人-AI 系統**：人類如何有效管理混合團隊？反之，AI 如何管理人-AI 組合？
- **行為與研究啟用**：AI 如社群媒體般塑造行為，需何監測工具？透明機制讓非前沿公司研究真實世界 AI 使用。
- **理解與治理 AI 模型**：AI 系統「價值」如何反映訓練與「憲法」影響？延續先前研究。法律如何適用自主 Agent（如海事法對無人船的類比）；確保 Agent 具唯一身份；AI 治理 AI 的效能，人類何處具比較優勢或法律要求？
- **Agent 互動**：Agent 間互動產生何規範，不同偏好如何影響彼此？

**AI 驅動研發 (AI-driven R&D)**

AI 系統將日益貢獻自身研發，即自我改善；TAI 研究確保人類對此具可見度與控制，視為「自然紅利」，但潛藏重大危險，如複合回報加速進步。 [相關推文](https://x.com/jackclarkSF/status/2051312759594471886?s=20)

- **AI 用於 AI 研發治理**：自主自我改善時，人類如何維持可見度與控制？最終治理者為何？
- **火警演練**：智慧爆炸的桌上演習如何測試實驗室領導、董事會與政府決策？
- **遙測**：測量 AI 研發總速度的遙測與技術基礎；作為遞迴自我改善的早期警示。
- **控制加速**：智慧爆炸時，何介入點減緩速率？政府或公司應掌權？
- **一般領域 AI 研發**：AI 加速科學依資料可用性、評估訊號與隱性知識而異；梯度不均如何決定先解決何人類問題？模型能力 jagged frontier 使藥物發現、材料科學等正外部性領域投資不足，市場偏私利，如何導向社會外部性？

**Project Glasswing：AI 時代關鍵軟體安全**

Anthropic 宣布 [Project Glasswing](https://www.anthropic.com/glasswing)，集結 Amazon Web Services、Anthropic、Apple、Broadcom、Cisco、CrowdStrike、Google、JPMorgan Chase、Linux Foundation、Microsoft、NVIDIA 與 Palo Alto Networks 等夥伴，防禦 AI 驅動網路威脅。未發布前沿模型「Claude Mythos Preview」展現超人類程式碼能力，已發現數千高嚴重漏洞，包括所有主要作業系統與瀏覽器，預示能力即將擴散，可能嚴重衝擊經濟、公眾安全與國家安全。

- **網路安全現況**：軟體漏洞常被忽略多年，需高手發掘；AI 模型過去一年劇進，Mythos Preview 發現數十年人類審核與數百萬自動測試未察覺的零日漏洞 (zero-day)，開發精密利用程式。全球網路犯罪年損失約 $500B，國家攻擊（如中國、伊朗、北韓、俄羅斯）威脅基礎設施。
- **具體發現示例**：
  1. OpenBSD（安全強化作業系統，用於防火牆等）27 年老漏洞，允許遠端崩潰機器。
  2. FFmpeg（影片編解碼，廣泛使用）16 年漏洞，自動工具測試 500 萬次未發現。
  3. Linux 核心多漏洞鏈，允許使用者權限升級至完全控制。
- **計畫細節**：夥伴使用 Mythos Preview 掃描基礎系統；Anthropic 提供 $100M 使用額度予 40+ 組織，掃描第一方與開源系統；另捐 $4M 予開源安全組織（如 $2.5M 給 Alpha-Omega 與 OpenSSF、$1.5M 給 Apache Software Foundation）。模型後續定價 $25/$125 每百萬輸入/輸出 token，經 [Claude API](https://www.anthropic.com/claude-api)、Amazon Bedrock、Google Cloud Vertex AI、Microsoft Foundry 存取。
- **未來行動**：90 天內公開報告修復漏洞與改進；與安全組織制定 AI 時代實務建議；與美國政府討論，強調民主國家維持 AI 領先以確保安全。呼籲產業擴大參與，防禦需超越單一組織，AI 進步僅數月，行動刻不容緩。

TAI 將分享「Anthropic Economic Index」更細緻資料、韌性投資研究、AI 工具加速內部工作的細節，以及遞迴自我改善意涵；影響 Anthropic 資料分享（如經濟指數）與技術發布方式。歡迎申請「Anthropic Fellow」四年資助計畫，與 TAI 團隊指導攻克議題。完整議程見 [Anthropic Institute 議程](https://www.anthropic.com/research/anthropic-institute-agenda) 與 [經濟指數](https://www.anthropic.com/economic-index)。

## 標籤

研究論文, 產業趨勢, 其他, Anthropic
