Appearance
CanIRun.ai
本地 AI 模型硬件检测工具 | 开源 CLI | 由 midudev 开发
是什么
CanIRun.ai 是一个检测本地设备能运行什么 AI 模型的工具,同时提供开源 CLI 让你在终端查询。
由开发者 midudev 为本地 AI 社区打造。
解决啥
- 硬件不透明:不知道自己的 GPU/CPU 能否跑某个模型
- 模型选择困难:海量模型,不知道哪个能跑、哪个流畅
- 量化版本困惑:Q2_K、Q4_K_M、Q6_K、Q8_0 等不同量化版本需要多少显存
怎么跑
网页版
直接访问 https://canirun.ai(注意:canrun.ai 是死链接,别写错)
CLI 安装
bash
# 使用 npx 直接运行
npx canirun
# 或全局安装
npm install -g canirun-cli
CLI 使用
bash
# 查询某个模型
canirun qwen2.5-32b
# 查询本地硬件信息
canirun -- hardware
# 查看推荐模型
canirun -- recommend
好在哪
| 维度 | 说明 |
|---|---|
| 硬件检测 | 自动检测 GPU 型号、显存大小 |
| 模型兼容性 | 告诉你能跑哪些模型、流畅度如何 |
| 量化建议 | 推荐最适合的量化版本(Q2_Q8) |
| 开源 | CLI 工具开源,可本地部署 |
| 社区维护 | 由 midudev 维护,持续更新 |
怎么用
场景 1:购买前测试
想跑 Qwen 3 30B?先查一下需要多少显存。
场景 2:选择量化版本
16GB 显存能跑 Q4_K_M 还是 Q6_K?CanIRun 告诉你。
场景 3:终端快速查询
bash
$ canirun llama3-70b
Model: Llama 3 70B
Min VRAM: 42GB (Q4_K_M)
Your VRAM: 16GB ❌
Try:
- Phi-3 Mini 4K (2.7GB) ✅
- Qwen2-0.5B (0.9GB) ✅
相关链接
- 网站: https://canirun.ai
- GitHub: (CLI 开源仓库)
- 维护者: midudev
视频教程
- 🎬 瞬间看穿你的电脑!能跑啥开源大模型? - B 站