ターミナルから GPT-4、Claude、またはローカルモデルを直接呼び出してプログラミングを支援したい?llxprt-code はオープンソースのマルチプロバイダー AI 支援 CLI 開発ツールで、特定プラットフォームに縛られることなく、自由にモデルを選択できる。

プロジェクト概要

属性内容
GitHubvybestack/llxprt-code
Stars650
言語TypeScript
ライセンスApache 2.0
特徴マルチ LLM サポート、ターミナルネイティブ、コード支援
最終更新今日

コア機能

1. マルチ LLM プロバイダー対応

単一プラットフォームに依存せず、以下をサポート:

  • OpenAI (GPT-4, GPT-3.5)
  • Anthropic (Claude)
  • ローカルモデル (Ollama, LM Studio)
  • その他 OpenAI API 互換サービス

2. ターミナルネイティブ体験

コマンドラインで直接動作し、コンテキスト切り替えが不要:

# コードの質問
llx "Rust で LRU Cache を実装するには?"

# 現在のディレクトリのコードを説明
llx explain .

# 指定ファイルのリファクタリング
llx refactor src/utils.ts

# 単体テストの生成
llx test src/calculator.ts

3. コンテキスト認識

現在のプロジェクトのコンテキスト情報を自動的に読み取る:

  • ファイル構造
  • 依存関係の設定
  • 既存のコードスタイル

これにより、AI の回答がプロジェクトの実際の状況により適合する。

4. コード編集統合

AI が生成したコードをファイルに直接書き込み可能:

# コンポーネントを生成して保存
llx "React Button コンポーネントを作成" --output src/components/Button.tsx

# バッチ処理
llx refactor src/ --pattern "*.ts"

クイックスタート

# インストール
npm install -g @vybestack/llx

# API Key の設定
llx config set openai.key sk-xxx
llx config set anthropic.key sk-ant-xxx

# 使用開始
llx "Python スクリプトでファイルをバッチリネームする方法を教えて"

設定例

~/.llxc/config.json で複数のプロバイダーを設定:

{
  "providers": {
    "openai": {
      "key": "sk-...",
      "model": "gpt-4"
    },
    "anthropic": {
      "key": "sk-ant-...",
      "model": "claude-3-opus"
    },
    "ollama": {
      "baseUrl": "http://localhost:11434",
      "model": "codellama"
    }
  },
  "defaultProvider": "openai"
}

使用時にいつでも切り替え可能:

llx "質問" --provider anthropic
llx "質問" --provider ollama

類似ツールとの比較

ツールStars特徴
GitHub Copilot CLIクローズドソース強力だが GitHub/OpenAI に依存
Aider3.2kマルチファイル編集、Git 統合
Continue3.5kVS Code プラグイン、IDE 内使用
llxprt-code650純粋な CLI、マルチ LLM、軽量

他のツールと比較して、llxprt-code の強みは:

  • 特定の IDE に依存しない - 純粋な CLI で、どのターミナルでも使用可能
  • 単一の LLM に縛られない - プロバイダーを自由に切り替え可能
  • 軽量で高速 - 複雑な UI がなく、応答が迅速

適用シナリオ

推奨

  • ターミナルを常時使用する開発者
  • 異なる LLM を柔軟に切り替えたいユーザー
  • リモートサーバー/SSH 環境で作業
  • IDE プラグインが好みでない軽量派ユーザー

非推奨

  • 重度の IDE 依存者(VS Code、JetBrains)
  • ビジュアルインターフェース表示が必要なシーン
  • チームで統一されたツールチェーンを使用する環境

注意事項

  • API 費用 - 外部 LLM の呼び出しには費用が発生するため、使用量に注意
  • プライバシー - コードは LLM サービスにアップロードされるため、機密性の高いプロジェクトにはローカルモデルの使用を推奨
  • 出力の確認 - AI が生成したコードは必ず人間が確認すること

まとめ

llxprt-code は小さく美しいターミナル AI プログラミングアシスタントだ。650 star の規模はまだ急速なイテレーション期にあることを示しているが、マルチ LLM サポート+純粋なターミナル体験の組み合わせはすでに実用的だ。プラットフォームに依存せず、軽量で柔軟な CLI AI ツールを探しているなら、試す価値がある。

公式サイト:vybestack.dev


属性内容
リポジトリhttps://github.com/vybestack/llxprt-code
ライセンスApache 2.0
メンテナvybestack