# 策展 · X (Twitter) 🔥

> 作者：⁵⁄₉ (@fiveoutofnine) · 平台：X (Twitter) · 日期：2026-03-31

> 原始來源：https://x.com/fiveoutofnine/status/2038728823861367233

## 中文摘要

whatcanirun 是一個開源專案，旨在幫助使用者找到最適合在本地硬體上執行的人工智慧模型。平台透過社群基準測試資料進行彙整，讓使用者能根據真實數據選擇最優模型。核心運作流程為：使用者在本地執行和提交基準測試、統計資料根據模型和裝置進行彙整、使用者據此找到最佳選擇。

**核心功能與工具**

whatcanirun 提供兩個主要使用介面：
- 網站（whatcani.run）：提供模型瀏覽、按裝置篩選，以及檢視社群基準測試結果的功能
- CLI 工具（`npx whatcanirun`）：執行標準化的本地 LLM 基準測試，並允許使用者提交結果

使用者只需在終端執行 `npx whatcanirun@latest` 即可運行和提交基準測試，整個流程簡化為單一指令。

**技術架構**

該專案採用 Monorepo 結構，使用 Bun 和 Turborepo 進行管理，包含三個主要部分：
- `apps/www`：基於 Next.js 的網頁應用
- `apps/cli`：CLI 基準測試工具
- `packages/shared`：共享的型別、schema 和工具函式

整個專案完全開源，開發者可透過標準化的指令進行構建、檢查、測試等操作。

**社群驅動的基準測試生態**

whatcanirun 的創新之處在於其社群驅動的方式：任何人都可在自己的硬體上執行基準測試並提交結果，這些資料會被彙整成可公開查詢的統計資訊。使用者藉此取得真實環境中的性能數據，而非僅依賴理論值，形成一個動態擴展的本地模型評估資料庫。

## 標籤

開源專案, CLI, LLM, Benchmark, whatcanirun
