想在本机跑 AI 模型,但不知道自己的电脑能不能带动?这大概是每个尝试过本地部署大模型的人都遇到过的困惑。

今天推荐的 CanIRun.ai 就是专门解决这个问题的工具——它能在浏览器里直接检测你的设备配置,告诉你哪些开源模型可以本地运行。

它解决了什么问题

本地部署 AI 模型最大的痛点不是安装,而是选择困难

  • 我的显卡能跑 70B 模型吗?
  • 8GB 显存能用什么量化级别?
  • 这个模型需要多少内存?
  • Q4 和 Q8 量化差别有多大?

传统的做法是去各个模型的 HuggingFace 页面查参数,再手动计算 VRAM 需求。CanIRun.ai 把这个过程简化为一键检测——打开网页,它自动列出你能运行的所有模型。

核心功能详解

1. WebGPU 实时检测

网站基于 WebGPU 技术检测浏览器的 GPU 能力。无需安装任何软件,只要浏览器支持 WebGPU(Chrome/Edge 最新版),就能立即获取设备信息。

2. 覆盖 60+ 主流模型

从最小的 0.8B 到最大的 1T 参数模型,覆盖了目前主流的开源生态:

系列代表模型参数范围
Meta LlamaLlama 3.1/3.2/3.3、Llama 41B - 400B
阿里巴巴 QwenQwen 2.5/3/3.50.8B - 397B
Google GemmaGemma 2/31B - 27B
DeepSeekDeepSeek R1/V3/V3.1/V3.21.5B - 685B
Microsoft PhiPhi-43.8B - 14B
MistralMistral Small/Devstral8B - 123B
其他Kimi K2、GPT-OSS、OLMo 等最高 1T

3. 详细量化配置

每个模型都提供 7 种量化级别的详细数据:

量化精度质量典型 VRAM
Q2_K2-bitLow最小
Q3_K_M3-bitModerate较小
Q4_K_M4-bitGood中等
Q5_K_M5-bitGood较大
Q6_K6-bitExcellent
Q8_08-bitExcellent很大
F1616-bitLossless最大

比如 DeepSeek R1(671B MoE,37B active):

  • Q2_K: 214.8 GB
  • Q4_K_M: 343.7 GB
  • Q8_0: 687.4 GB
  • F16: 1374.8 GB

这让用户可以根据硬件条件灵活选择。

4. 模型信息聚合

每个模型页面整合了一站式信息:

  • 官方 HuggingFace/Ollama/LM Studio 链接
  • 下载量和点赞数
  • 发布时间
  • 上下文长度
  • 适用场景(chat/reasoning/code/multimodal)
  • MoE 模型的专家配置详情

使用体验

网站界面非常简洁,主要分为三个区域:

  1. 顶部检测区 —— 显示当前设备能运行的模型数量
  2. 推荐模型 —— 根据设备配置推荐的几个主流选择
  3. 完整列表 —— 按参数大小排序的所有模型

点击任意模型进入详情页,可以看到具体的 VRAM 需求表格。如果某项配置显示为绿色,表示你的设备可以运行;红色则表示不够。

适用场景

  1. 硬件选购参考 想买新显卡/笔记本?先用 CanIRun.ai 看看目标配置能跑什么模型。

  2. 模型选型决策 不确定该用 Llama 3.1 8B 还是 Qwen 2.5 7B?对比它们的 VRAM 需求和上下文长度。

  3. 量化方案规划 显存不够时,快速找到合适的量化级别平衡点。

  4. 新手入门指南 刚接触本地部署的新手可以直观了解模型规模与硬件需求的关系。

技术原理

CanIRun.ai 的数据来源包括:

这些都是本地运行大模型的主流工具,数据可信度较高。

WebGPU 检测部分利用了现代浏览器的新标准 API,可以获取 GPU 的显存估算和计算能力信息。

同类工具对比

工具特点优势局限
CanIRun.ai浏览器检测 + 模型数据库无需安装、实时检测、数据全面依赖 WebGPU 支持
Ollama 官网官方模型库与工具深度集成只覆盖 Ollama 支持的模型
LM StudioGUI 工具内置检测可直接下载运行需要安装软件
HuggingFace官方模型页最权威需要手动计算需求

CanIRun.ai 的优势在于零门槛全面性——不用装软件,打开网页就能看到所有主流模型的兼容性。

总结

对于经常玩本地 AI 模型的开发者来说,CanIRun.ai 是一个省心的参考工具。它把分散在各处的模型参数整合成一个清晰的兼容性列表,让硬件规划和模型选型变得更直观。

如果你正在考虑本地部署大模型,不妨先打开 canirun.ai 看看你的设备能带得动什么。


项目信息

属性内容
网站https://canirun.ai/
技术WebGPU + 浏览器检测
数据源llama.cpp, Ollama, LM Studio
覆盖模型60+ 开源模型
参数范围0.8B - 1T
适用场景本地部署规划、硬件选购参考