whatcanirun 平台介紹
whatcanirun 是一個開源專案,旨在幫助使用者找到最適合在本地硬體上執行的人工智慧模型。平台透過社群基準測試資料進行彙整,讓使用者能根據真實數據選擇最優模型。核心運作流程為:使用者在本地執行和提交基準測試、統計資料根據模型和裝置進行彙整、使用者據此找到最佳選擇。
核心功能與工具
whatcanirun 提供兩個主要使用介面:
- 網站(whatcani.run):提供模型瀏覽、按裝置篩選,以及檢視社群基準測試結果的功能
- CLI 工具(
npx whatcanirun):執行標準化的本地 LLM 基準測試,並允許使用者提交結果
使用者只需在終端執行 npx whatcanirun@latest 即可運行和提交基準測試,整個流程簡化為單一指令。
技術架構
該專案採用 Monorepo 結構,使用 Bun 和 Turborepo 進行管理,包含三個主要部分:
apps/www:基於 Next.js 的網頁應用apps/cli:CLI 基準測試工具packages/shared:共享的型別、schema 和工具函式
整個專案完全開源,開發者可透過標準化的指令進行構建、檢查、測試等操作。
社群驅動的基準測試生態
whatcanirun 的創新之處在於其社群驅動的方式:任何人都可在自己的硬體上執行基準測試並提交結果,這些資料會被彙整成可公開查詢的統計資訊。使用者藉此取得真實環境中的性能數據,而非僅依賴理論值,形成一個動態擴展的本地模型評估資料庫。
Introducing https://t.co/KpvvGiStpI
— ⁵⁄₉ (@fiveoutofnine) March 30, 2026
Find the best local models based on real data
1. People run and submit benchmarks
2. Stats aggregated over models / devices
3. Find the best model for you
`npx whatcanirun`, fully open-source pic.twitter.com/huOjH3zSAv
Run this in your terminal to run and submit a benchmark:
— ⁵⁄₉ (@fiveoutofnine) March 30, 2026
npx whatcanirun@latesthttps://t.co/TjyO7CXJ4m
