Skip to content
On this page

CanIRun.ai

本地 AI 模型硬件检测工具 | 开源 CLI | 由 midudev 开发

是什么

CanIRun.ai 是一个检测本地设备能运行什么 AI 模型的工具,同时提供开源 CLI 让你在终端查询。

由开发者 midudev 为本地 AI 社区打造。


解决啥

  • 硬件不透明:不知道自己的 GPU/CPU 能否跑某个模型
  • 模型选择困难:海量模型,不知道哪个能跑、哪个流畅
  • 量化版本困惑:Q2_K、Q4_K_M、Q6_K、Q8_0 等不同量化版本需要多少显存

怎么跑

网页版

直接访问 https://canirun.ai(注意:canrun.ai 是死链接,别写错)

CLI 安装

bash
# 使用 npx 直接运行
npx canirun

# 或全局安装
npm install -g canirun-cli

CLI 使用

bash
# 查询某个模型
canirun qwen2.5-32b

# 查询本地硬件信息
canirun -- hardware

# 查看推荐模型
canirun -- recommend

好在哪

维度说明
硬件检测自动检测 GPU 型号、显存大小
模型兼容性告诉你能跑哪些模型、流畅度如何
量化建议推荐最适合的量化版本(Q2_Q8)
开源CLI 工具开源,可本地部署
社区维护由 midudev 维护,持续更新

怎么用

场景 1:购买前测试

想跑 Qwen 3 30B?先查一下需要多少显存。

场景 2:选择量化版本

16GB 显存能跑 Q4_K_M 还是 Q6_K?CanIRun 告诉你。

场景 3:终端快速查询

bash
$ canirun llama3-70b
Model: Llama 3 70B
Min VRAM: 42GB (Q4_K_M)
Your VRAM: 16GB ❌

Try:
- Phi-3 Mini 4K (2.7GB)
- Qwen2-0.5B (0.9GB)

相关链接


视频教程