60+ AI 模型一键检测:CanIRun.ai 帮你快速判断本地能跑什么大模型
想在本机跑 AI 模型,但不知道自己的电脑能不能带动?这大概是每个尝试过本地部署大模型的人都遇到过的困惑。
今天推荐的 CanIRun.ai 就是专门解决这个问题的工具——它能在浏览器里直接检测你的设备配置,告诉你哪些开源模型可以本地运行。
它解决了什么问题
本地部署 AI 模型最大的痛点不是安装,而是选择困难:
- 我的显卡能跑 70B 模型吗?
- 8GB 显存能用什么量化级别?
- 这个模型需要多少内存?
- Q4 和 Q8 量化差别有多大?
传统的做法是去各个模型的 HuggingFace 页面查参数,再手动计算 VRAM 需求。CanIRun.ai 把这个过程简化为一键检测——打开网页,它自动列出你能运行的所有模型。
核心功能详解
1. WebGPU 实时检测
网站基于 WebGPU 技术检测浏览器的 GPU 能力。无需安装任何软件,只要浏览器支持 WebGPU(Chrome/Edge 最新版),就能立即获取设备信息。
2. 覆盖 60+ 主流模型
从最小的 0.8B 到最大的 1T 参数模型,覆盖了目前主流的开源生态:
| 系列 | 代表模型 | 参数范围 |
|---|---|---|
| Meta Llama | Llama 3.1/3.2/3.3、Llama 4 | 1B - 400B |
| 阿里巴巴 Qwen | Qwen 2.5/3/3.5 | 0.8B - 397B |
| Google Gemma | Gemma 2/3 | 1B - 27B |
| DeepSeek | DeepSeek R1/V3/V3.1/V3.2 | 1.5B - 685B |
| Microsoft Phi | Phi-4 | 3.8B - 14B |
| Mistral | Mistral Small/Devstral | 8B - 123B |
| 其他 | Kimi K2、GPT-OSS、OLMo 等 | 最高 1T |
3. 详细量化配置
每个模型都提供 7 种量化级别的详细数据:
| 量化 | 精度 | 质量 | 典型 VRAM |
|---|---|---|---|
| Q2_K | 2-bit | Low | 最小 |
| Q3_K_M | 3-bit | Moderate | 较小 |
| Q4_K_M | 4-bit | Good | 中等 |
| Q5_K_M | 5-bit | Good | 较大 |
| Q6_K | 6-bit | Excellent | 大 |
| Q8_0 | 8-bit | Excellent | 很大 |
| F16 | 16-bit | Lossless | 最大 |
比如 DeepSeek R1(671B MoE,37B active):
- Q2_K: 214.8 GB
- Q4_K_M: 343.7 GB
- Q8_0: 687.4 GB
- F16: 1374.8 GB
这让用户可以根据硬件条件灵活选择。
4. 模型信息聚合
每个模型页面整合了一站式信息:
- 官方 HuggingFace/Ollama/LM Studio 链接
- 下载量和点赞数
- 发布时间
- 上下文长度
- 适用场景(chat/reasoning/code/multimodal)
- MoE 模型的专家配置详情
使用体验
网站界面非常简洁,主要分为三个区域:
- 顶部检测区 —— 显示当前设备能运行的模型数量
- 推荐模型 —— 根据设备配置推荐的几个主流选择
- 完整列表 —— 按参数大小排序的所有模型
点击任意模型进入详情页,可以看到具体的 VRAM 需求表格。如果某项配置显示为绿色,表示你的设备可以运行;红色则表示不够。
适用场景
-
硬件选购参考 想买新显卡/笔记本?先用 CanIRun.ai 看看目标配置能跑什么模型。
-
模型选型决策 不确定该用 Llama 3.1 8B 还是 Qwen 2.5 7B?对比它们的 VRAM 需求和上下文长度。
-
量化方案规划 显存不够时,快速找到合适的量化级别平衡点。
-
新手入门指南 刚接触本地部署的新手可以直观了解模型规模与硬件需求的关系。
技术原理
CanIRun.ai 的数据来源包括:
这些都是本地运行大模型的主流工具,数据可信度较高。
WebGPU 检测部分利用了现代浏览器的新标准 API,可以获取 GPU 的显存估算和计算能力信息。
同类工具对比
| 工具 | 特点 | 优势 | 局限 |
|---|---|---|---|
| CanIRun.ai | 浏览器检测 + 模型数据库 | 无需安装、实时检测、数据全面 | 依赖 WebGPU 支持 |
| Ollama 官网 | 官方模型库 | 与工具深度集成 | 只覆盖 Ollama 支持的模型 |
| LM Studio | GUI 工具内置检测 | 可直接下载运行 | 需要安装软件 |
| HuggingFace | 官方模型页 | 最权威 | 需要手动计算需求 |
CanIRun.ai 的优势在于零门槛和全面性——不用装软件,打开网页就能看到所有主流模型的兼容性。
总结
对于经常玩本地 AI 模型的开发者来说,CanIRun.ai 是一个省心的参考工具。它把分散在各处的模型参数整合成一个清晰的兼容性列表,让硬件规划和模型选型变得更直观。
如果你正在考虑本地部署大模型,不妨先打开 canirun.ai 看看你的设备能带得动什么。
项目信息
| 属性 | 内容 |
|---|---|
| 网站 | https://canirun.ai/ |
| 技术 | WebGPU + 浏览器检测 |
| 数据源 | llama.cpp, Ollama, LM Studio |
| 覆盖模型 | 60+ 开源模型 |
| 参数范围 | 0.8B - 1T |
| 适用场景 | 本地部署规划、硬件选购参考 |