想在终端里直接调用 GPT-4、Claude 或本地模型来辅助编程?llxprt-code 是一个开源的多提供商 AI 辅助 CLI 开发工具,让你摆脱特定平台的束缚,自由选择想用的模型。

项目概览

属性内容
GitHubvybestack/llxprt-code
Stars650
语言TypeScript
许可证Apache 2.0
特点多 LLM 支持、终端原生、代码辅助
最后更新今天

核心特性

1. 多 LLM 提供商支持

不绑定任何单一平台,支持:

  • OpenAI (GPT-4, GPT-3.5)
  • Anthropic (Claude)
  • 本地模型 (Ollama, LM Studio)
  • 其他兼容 OpenAI API 的服务

2. 终端原生体验

直接在命令行中工作,无需切换上下文:

# 询问代码问题
llx "如何用 Rust 实现一个 LRU Cache?"

# 解释当前目录代码
llx explain .

# 重构指定文件
llx refactor src/utils.ts

# 生成单元测试
llx test src/calculator.ts

3. 上下文感知

自动读取当前项目的上下文信息:

  • 文件结构
  • 依赖配置
  • 已有代码风格

这让 AI 的回答更贴合你的项目实际情况。

3. 代码编辑集成

支持将 AI 生成的代码直接写入文件:

# 生成组件并保存
llx "创建一个 React Button 组件" --output src/components/Button.tsx

# 批量处理
llx refactor src/ --pattern "*.ts"

快速上手

# 安装
npm install -g @vybestack/llx

# 配置 API Key
llx config set openai.key sk-xxx
llx config set anthropic.key sk-ant-xxx

# 开始使用
llx "帮我写一个 Python 脚本,批量重命名文件"

配置示例

~/.llxc/config.json 中配置多个提供商:

{
  "providers": {
    "openai": {
      "key": "sk-...",
      "model": "gpt-4"
    },
    "anthropic": {
      "key": "sk-ant-...",
      "model": "claude-3-opus"
    },
    "ollama": {
      "baseUrl": "http://localhost:11434",
      "model": "codellama"
    }
  },
  "defaultProvider": "openai"
}

使用时可以随时切换:

llx "问题" --provider anthropic
llx "问题" --provider ollama

同类对比

工具Stars特点
GitHub Copilot CLI闭源功能强大,但绑定 GitHub/OpenAI
Aider3.2k支持多文件编辑,Git 集成
Continue3.5kVS Code 插件,IDE 内使用
llxprt-code650纯终端、多 LLM、轻量

相比其他工具,llxprt-code 的优势在于:

  • 不依赖特定 IDE - 纯 CLI,在任何终端都能用
  • 不绑定单一 LLM - 自由切换提供商
  • 轻量快速 - 没有复杂的 UI,响应迅速

适用场景

推荐使用

  • 常驻终端的开发者
  • 需要灵活切换不同 LLM 的用户
  • 远程服务器/SSH 环境下工作
  • 不喜欢 IDE 插件的轻量化用户

不推荐

  • 重度 IDE 依赖者(VS Code、JetBrains)
  • 需要可视化界面展示的场景
  • 团队统一工具链的环境

注意事项

  • API 费用 - 调用外部 LLM 会产生费用,注意用量
  • 隐私敏感 - 代码会上传到 LLM 服务商,敏感项目建议使用本地模型
  • 输出审查 - AI 生成的代码仍需人工检查

总结

llxprt-code 是一个小而美的终端 AI 编程助手。650 star 的规模意味着它还处于快速迭代期,但多 LLM 支持+纯终端体验的组合已经相当实用。如果你在找一个不绑定平台、轻量灵活的 CLI AI 工具,值得一试。

官网:vybestack.dev


属性内容
仓库https://github.com/vybestack/llxprt-code
许可证Apache 2.0
维护者vybestack