# 策展 · X (Twitter) 🔥🔥🔥🔥

> 作者：Xiaomi MiMo (@XiaomiMiMo) · 平台：X (Twitter) · 日期：2026-04-28

> 原始來源：https://x.com/XiaomiMiMo/status/2048821516079661561

## 中文摘要

小米「MiMo-V2.5」正式開源，支援1M token上下文視窗。  
小米「MiMo-V2.5」系列模型以MIT授權完全開源，允許商業部署、持續訓練與微調，無需額外授權，強調模型價值在於解決實際問題，而非僅憑排名。

**模型規格與效能**  
「MiMo-V2.5」系列推出兩款模型，皆支援1M token上下文視窗：  
- 「MiMo-V2.5-Pro」：專為複雜Agent與程式撰寫任務打造，在GDPVal-AA與ClawEval評測中排名開源模型第一。  
- 「MiMo-V2.5」：原生全模態模型，具備強大Agent能力。  
作者強調，一款模型的價值不在排名，而是它能解決的具體問題，並呼籲開發者立即使用「MiMo」建構應用。

**框架支援即刻到位**  
開源首日即獲得「SGLang」與「vLLM」支援，讓開發者零延遲上手「MiMo-V2.5」系列。  
小米特別感謝「SGLang」專案（來自「lmsysorg」）與「vllm_project」團隊的快速行動，協助開發者在「day zero」即開始部署。

**多晶片平台Day-0適配**  
「MiMo-V2.5」在開源首日即實現跨多晶片平台的「Day-0」適配，從雲端AI晶片到國產加速器皆高效運行。  
感謝硬體生態夥伴的協助，包括「AWS Cloud」、「AMD」、「T-HEAD」、「KUNLUNXIN」、「Enflame」、「MetaX」與「Iluvatar CoreX」，小米正與生態合作，讓更多開發者與企業在首日即可部署「MiMo-V2.5」。

**Hugging Face資源細節**  
模型權重已上傳「Hugging Face」收藏集「XiaomiMiMo/mimo-v25」，包含四款變體：  
- 「XiaomiMiMo/MiMo-V2.5-Pro」：文字生成，1T參數，65下載，約17小時前更新。  
- 「XiaomiMiMo/MiMo-V2.5-Pro-Base」：文字生成，1T參數，8下載，約17小時前更新。  
- 「XiaomiMiMo/MiMo-V2.5」：42下載，約18小時前更新。  
- 「XiaomiMiMo/MiMo-V2.5-Base」：8下載，約18小時前更新。  
官方部落格連結：https://mimo.xiaomi.com/index#blog，權重連結：https://huggingface.co/collections/XiaomiMiMo/mimo-v25。

此開源行動彰顯小米在人工智慧模型生態的積極布局，透過MIT授權與生態合作，強調實用部署而非虛名，預期將加速Agent與全模態應用的開發進程。

## 標籤

LLM, 開源專案, Agent, Benchmark, 小米, MiMo
