# 策展 · X (Twitter) 🔥🔥🔥🔥🔥

> 作者：DeepSeek (@deepseek_ai) · 平台：X (Twitter) · 日期：2026-04-24

> 原始來源：https://x.com/deepseek_ai/status/2047516922263285776

## 中文摘要

DeepSeek-V4 開源上線，帶來成本效益高的 1M 上下文時代。

DeepSeek-V4 Preview 正式上線並開源，標誌著高效 1M 上下文長度的時代來臨，DeepSeek-V4-Pro 以 1.6T 總參數 / 49B 活躍參數匹敵全球頂尖閉源模型，DeepSeek-V4-Flash 則以 284B 總參數 / 13B 活躍參數提供快速、經濟選擇。立即透過 http://chat.deepseek.com 的 Expert Mode 或 Instant Mode 體驗，API 已更新可用。

**模型規格與效能**

DeepSeek-V4-Pro 在 Agentic 程式開發基準測試中達到開源 SOTA，世界知識領先所有現有開源模型，僅落後 Gemini-3.1-Pro；推理能力在數學、STEM、程式撰寫領域擊敗所有開源模型，匹敵頂尖閉源模型。

DeepSeek-V4-Flash 的推理能力接近 V4-Pro，在簡單 Agent 任務上表現相當，但參數規模更小、回應更快、API 定價極具成本效益。

**結構創新與上下文效率**

採用新型 Attention 機制，包括 token-wise 壓縮 + DSA (DeepSeek Sparse Attention)，實現世界領先的長上下文效能，大幅降低運算與記憶體成本；1M 上下文現為所有官方 DeepSeek 服務的預設標準。

**Agent 能力優化**

DeepSeek-V4 無縫整合領先 AI Agent 如 Claude Code、OpenClaw 與 OpenCode，已驅動 DeepSeek 內部 Agentic 程式開發；示範中，DeepSeek-V4-Pro 可生成樣本 PDF 文件。

**API 即時可用**

維持原有 base_url，僅更新模型為 deepseek-v4-pro 或 deepseek-v4-flash，支持 OpenAI ChatCompletions 與 Anthropic API；兩模型均支援 1M 上下文及雙模式 (Thinking / Non-Thinking)，詳見 https://api-docs.deepseek.com/guides/thinking_mode。

**Thinking Mode 細節**

- Thinking Mode 預設啟用，在輸出最終答案前先產生 chain-of-thought 推理，提升回應準確度。
- 一般請求預設高 effort，複雜 Agent 請求 (如 Claude Code、OpenCode) 自動設為 max；相容性下，低/中 effort 映射為高，xhigh 映射為 max。
- 不支援 temperature、top_p、presence_penalty 或 frequency_penalty 參數，設定無效但不報錯。
- reasoning_content 與 content 同級返回；多輪對話中，若無工具呼叫，無需將先前 reasoning_content 併入上下文，若傳入則被忽略；若有工具呼叫，必須完整傳回所有後續請求，否則 API 返回 400 錯誤。

**多輪對話與工具呼叫範例**

多輪對話中，每輪輸出 CoT (reasoning_content) 與最終答案 (content)，無工具呼叫時先前 CoT 不併入下輪上下文。

工具呼叫支援多輪推理與呼叫，每子請求將該輪 reasoning_content 傳回 API，讓模型延續推理；回應中 response.choices[0].message 包含 content、reasoning_content 與 tool_calls，可直接附加至 messages 清單。

Python 範例程式碼示範存取 CoT、最終答案及上下文併入，Turn 2 請求仍需傳回 Turn 1 的 reasoning_content。

**開源資源與注意事項**

開源權重見 https://huggingface.co/collections/deepseek-ai/deepseek-v4，包括：
- deepseek-ai/DeepSeek-V4-Flash-Base：292B，更新約 3 小時前。
- deepseek-ai/DeepSeek-V4-Flash：158B Text Generation，更新約 1 小時前。
- deepseek-ai/DeepSeek-V4-Pro-Base：1.6T，更新約 2 小時前。
- deepseek-ai/DeepSeek-V4-Pro：862B Text Generation，更新約 1 小時前。

技術報告：https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf。

⚠️ deepseek-chat 與 deepseek-reasoner 將於 2026 年 7 月 24 日 15:59 (UTC) 完全退役，目前路由至 deepseek-v4-flash 的 non-thinking/thinking 模式。

僅依賴官方帳號獲取 DeepSeek 新聞，其他管道聲明不代表官方立場；DeepSeek 承諾長期主義，穩步邁向 AGI 終極目標。

## 標籤

LLM, 開源專案, 新產品, DeepSeek
