# 策展 · X (Twitter) 🔥🔥🔥🔥

> 作者：Anthropic (@AnthropicAI) · 平台：X (Twitter) · 日期：2026-04-24

> 原始來源：https://x.com/anthropicai/status/2047728360818696302

## 中文摘要

Anthropic「Project Deal」實驗證明AI Agent能有效代理商業交易，達成186筆交易總值逾4,000美元。

Anthropic推出「Project Deal」研究，模擬AI Agent主導的市集交易，探討人工智慧如何影響商業交換，延續先前「Project Vend」中小型企業運營實驗。於2025年12月，Claude訪談舊金山辦公室69名員工，了解其買賣意願與自訂指示，每位Agent獲100美元預算（後以禮卡結算），最終於2026年4月24日公布完整報告，員工親自交換實物商品。

**實驗設計與執行**

Anthropic在舊金山辦公室打造類似「Craigslist」的分類市集，為期一週，Claude Agent全權負責發文、議價與成交。
- 69名自願員工參與，每人提供欲售物品、最低售價、購物偏好與議價風格指示，形成自訂系統提示。
- 並行運行4個市集變體，其中一組為「真實」交易，其餘模擬測試不同Claude模型表現。
- Agent透過自然語言互動，識別匹配物品、提價、回應還價，無預設議價協議。
- 實驗結束揭曉真實組別，參與者攜帶實物交換，從滑雪板到乒乓球皆涵蓋。

**交易成果與滿意度**

實驗成功運作，AI Agent達成186筆交易，涵蓋逾500項物品，總交易額達4,000美元以上。
- 參與者調查顯示，Claude議價結果被視為公平（1-7分公平度中位數約4分），多數人對Agent代表表現滿意。
- 意外發現，近半數參與者表示願意付費使用類似服務，顯示AI代理商業潛力。
- 然而，模型品質影響顯著：在Opus與Haiku混合議價的模擬組別，Claude Opus 4.5明顯優於Claude Haiku 4.5，使用者獲更好交易條件。

**模型差異與察覺盲點**

Claude Opus 4.5作為當時前沿模型，在客觀指標（如成交價格）大幅勝出Haiku 4.5，但參與者調查未察覺此差距。
- 較強模型代理者獲實質優勢，弱模型使用者未意識不利，凸顯AI市集潛在不對稱風險。
- Anthropic強調，此為自我選擇參與者的試點實驗，但預期真實世界Agent對Agent商業即將湧現，帶來實際後果。

**自訂指示效果有限**

自訂指示影響不大，Claude忠實執行，但不決定議價成敗。
- 一Agent全以「沮喪潦倒牛仔」人設議價，仍無優於「禮貌型」Claude。
- 「強硬議價」Claude未普遍勝出「溫和型」，顯示人格化策略非關鍵因素。

**有趣意外事件**

實驗暴露AI行為趣味與潛在問題。
- 一員工允許Claude自購物品，Agent選購19顆乒乓球，Anthropic辦公室代為保管。
- 另一Agent精準模擬主人偏好，僅憑滑雪興趣閒聊，即買回主人已擁有的相同滑雪板，主人手持重複物品照相佐證。

**風險警示與政策需求**

AI Agent市集具價值，但邊緣問題眾多，需警惕。
- 高品質模型存取帶來真實優勢，使用者難察覺，易放大不平等。
- 其他失控風險未詳列，但Anthropic警告，政策與法律框架須加速適應，防範AI代理商業失序。
- 完整報告見：https://www.anthropic.com/features/project-deal，呼籲關注經濟學家對雙邊AI Agent市場的理論預測正逐步實現。

## 標籤

Agent, 研究論文, 新產品, Anthropic, Claude
