TanStack AI 推出 Code Mode,讓 LLM 透過執行 TypeScript 程式碼解決複雜任務
AI 語音朗讀 · Edge TTS
TanStack AI 推出 Code Mode,讓 LLM 透過執行 TypeScript 程式碼解決複雜任務。
LLM 在處理數學運算與工具呼叫(Orchestration)時表現不佳,TanStack AI 提出的「Code Mode」透過讓模型直接撰寫並執行 TypeScript 程式碼,而非僅僅進行工具呼叫,有效解決了傳統工具鏈的效率與準確性問題。
核心痛點
LLM 在處理工具呼叫時,往往面臨效率低、成本高且容易出錯的問題。傳統工具呼叫模式存在以下缺陷:
- 序列化瓶頸:工具呼叫是序列化的,導致往返延遲(Round-trip)增加,且每個呼叫都會膨脹視窗(Context Window)並消耗大量 token。
- 數學運算能力薄弱:LLM 本質上不擅長數學運算,對於複雜的數值計算(如平均值、加總)常產生看似自信但錯誤的結果。
- 缺乏最佳化能力:模型無法自動處理 N+1 問題,難以主動進行批次處理或平行化請求,導致資源浪費。
技術架構
Code Mode 將 LLM 的角色從單純的「工具調度者」轉變為「程式開發者」。其運作機制如下:
- 程式碼生成:模型不再逐一呼叫工具,而是撰寫一段 TypeScript 程式碼來整合多項操作。
- 安全執行環境:程式碼在安全的「沙盒」環境中執行,該環境與主機檔案系統、網路完全隔離。
- 介面封裝:現有工具被封裝為
external_*函數,供程式碼呼叫,並提供完整的型別定義。 - 多樣化驅動:支援多種「沙盒」驅動(Isolate Driver),包括 Node.js (V8 isolates)、QuickJS (WASM) 與 Cloudflare Workers,確保在不同環境下的相容性。
實際影響
透過將計算與邏輯交由 JavaScript 執行環境處理,而非依賴模型預測,帶來了顯著優勢:
- 大幅減少 token 消耗:將多次工具呼叫合併為單次程式執行,減少往返次數。
- 提升準確性:數學運算由真實執行環境完成,確保結果精確。
- 效能優化:利用
Promise.all等語法實現非同步平行處理,徹底解決 N+1 問題。
進階功能:Skills
為了讓 Agent 具備長期記憶與進化能力,TanStack AI 引入了「Skills」機制:
- 程式碼持久化:允許 LLM 將成功運行的程式碼儲存為具名、具備型別定義的「Skill」。
- 自動載入:在後續對話中,系統會自動載入相關 Skill,使其成為可直接呼叫的工具,無需重複撰寫邏輯。
- 靈活儲存:支援多種儲存後端(如資料庫、S3、Redis),並具備信任度評估機制,讓 Skill 隨成功執行次數累積信任。
技術背景
此模式並非全新概念,其靈感源自 Anthropic 對「電腦使用」的研究,以及 Cloudflare 於 2025 年 9 月提出的「Code Mode」概念。TanStack AI 將此模式整合為可與任何模型搭配使用的通用工具,並提供標準化的介面與整合方案,讓開發者無需自行建構沙盒基礎設施或處理複雜的系統提示詞工程。
LLMs are bad at math.
— TANSTACK (@tan_stack) April 8, 2026
They’re bad at orchestration.
But they’re really good at writing TypeScript.
So we gave them a runtime.
Code Mode in TanStack AI lets the model write & execute TS instead of chaining tools.
🧠 1 call instead of N
⚡ parallel execution
📉 fewer tokens
✔︎…
