AIモデルをローカルで動かしたいけど、自分のPCで本当に動くのかわからない——ローカルデプロイを試したことのある人なら、誰もが一度は直面したことがある悩みだろう。

今回紹介する CanIRun.ai は、まさにこの問題を解決するためのツールだ。ブラウザ上でデバイスの設定を検出し、どのオープンソースモデルがローカルで実行可能かを教えてくれる。

どんな問題を解決するのか

ローカルでのAIモデルデプロイで最も面倒なのは、インストールそのものではなく選択の困難さだ:

  • 自分のグラフィックカードで70Bモデルは動くのか?
  • 8GBのVRAMではどの量子化レベルが使えるのか?
  • このモデルにはどれくらいのメモリが必要なのか?
  • Q4とQ8の量子化ではどれくらい品質に差があるのか?

従来のやり方では、各モデルのHuggingFaceページでパラメータを調べ、VRAM necessityを手動で計算する必要があった。CanIRun.aiはこのプロセスをワンクリック検出に簡略化する——ページを開くだけで、実行可能な全モデルが一覧表示される。

核心機能の詳細

1. WebGPUリアルタイム検出

このサイトは WebGPU 技術を利用してブラウザのGPU能力を検出する。追加ソフトウェアのインストールは不要で、WebGPUをサポートするブラウザ(最新版のChrome/Edge)があれば、即座にデバイス情報を取得できる。

2. 60種類以上の主流モデルをカバー

最小の0.8Bから最大の1Tパラメータモデルまで、現在主流のオープンソースエコシステムを網羅している:

シリーズ代表モデルパラメータ範囲
Meta LlamaLlama 3.1/3.2/3.3、Llama 41B - 400B
Alibaba QwenQwen 2.5/3/3.50.8B - 397B
Google GemmaGemma 2/31B - 27B
DeepSeekDeepSeek R1/V3/V3.1/V3.21.5B - 685B
Microsoft PhiPhi-43.8B - 14B
MistralMistral Small/Devstral8B - 123B
その他Kimi K2、GPT-OSS、OLMo など最大1T

3. 詳細な量子化設定

各モデルについて 7種類の量子化レベル の詳細データが提供されている:

量子化精度品質代表的VRAM
Q2_K2-bitLow最小
Q3_K_M3-bitModerate
Q4_K_M4-bitGood
Q5_K_M5-bitGood
Q6_K6-bitExcellent
Q8_08-bitExcellent非常大
F1616-bitLossless最大

例えば DeepSeek R1(671B MoE、37B active)の場合:

  • Q2_K: 214.8 GB
  • Q4_K_M: 343.7 GB
  • Q8_0: 687.4 GB
  • F16: 1374.8 GB

これにより、ユーザーはハードウェア条件に応じて柔軟に選択できる。

4. モデル情報の統合

各モデルページにはワンストップで情報が統合されている:

  • 公式HuggingFace/Ollama/LM Studioリンク
  • ダウンロード数といいね数
  • リリース日
  • コンテキスト長
  • 使用シーン(chat/reasoning/code/multimodal)
  • MoEモデルのエキスパート構成詳細

使用体験

サイトのインターフェースは非常にシンプルで、主に3つのエリアに分かれている:

  1. トップ検出エリア —— 現在のデバイスで実行可能なモデル数を表示
  2. 推奨モデル —— デバイス設定に基づいて推奨される主要な選択肢
  3. 完全リスト —— パラメータサイズ順に並べられた全モデル

任意のモデルをクリックすると詳細ページが表示され、具体的なVRAM necessityテーブルが見られる。設定項目が緑色で表示されていればデバイスで実行可能、赤色であれば不十分を示している。

適用シーン

  1. ハードウェア購入の参考 新しいグラフィックカードやノートパソコンを買いたい?まずCanIRun.aiで目標設定でどのモデルが動くか確認しよう。

  2. モデル選定の意思決定 Llama 3.1 8BとQwen 2.5 7Bのどちらを使うべきか迷っている?VRAM necessityとコンテキスト長を比較しよう。

  3. 量子化方案の計画 VRAMが足りない時、適切な量子化レベルのバランスポイントを素早く見つけられる。

  4. 初心者向け入門ガイド ローカルデプロイを始めたばかりの初心者は、モデル規模とハードウェア necessityの関係を直感的に理解できる。

技術原理

CanIRun.aiのデータソースには以下が含まれる:

これらはローカルでの大規模モデル実行に関する主流ツールであり、データの信頼性は高い。

WebGPU検出部分は、現代ブラウザの新標準APIを活用しており、GPUのVRAM推定や計算能力情報を取得できる。

類似ツールとの比較

ツール特徴強み制限
CanIRun.aiブラウザ検出 + モデルデータベースインストール不要、リアルタイム検出、データが包括的WebGPUサポートに依存
Ollama公式サイト公式モデルライブラリツールとの深い統合Ollama対応モデルのみ
LM StudioGUIツール内蔵検出直接ダウンロード・実行可能ソフトウェアインストールが必要
HuggingFace公式モデルページ最も権威ある手動でnecessityを計算する必要がある

CanIRun.aiの強みはゼロハードル包括性——ソフトウェアをインストールせず、ページを開くだけで主流モデルの互換性が一目でわかる。

まとめ

ローカルでAIモデルを頻繁に試す開発者にとって、CanIRun.aiは手間を省く参考ツールだ。分散していたモデルパラメータを明確な互換性リストに統合し、ハードウェア計画とモデル選定をより直感的にしてくれる。

ローカルでの大規模モデルデプロイを検討しているなら、まずcanirun.aiを開いて、自分のデバイスで何が動くか確認してみよう。


プロジェクト情報

属性内容
ウェブサイトhttps://canirun.ai/
技術WebGPU + ブラウザ検出
データソースllama.cpp, Ollama, LM Studio
カバーするモデル60種類以上のオープンモデル
パラメータ範囲0.8B - 1T
適用シーンローカルデプロイ計画、ハードウェア購入参考