Claude Code Routines 发布与 Gemma 4 本地部署:AI 工具正在重新定义工作流
今天有两个值得关注的 AI 工具新闻,分别来自 Anthropic 和 Google。它们代表了 AI 辅助工作的两个不同方向:云端自动化与本地私有化部署。
Claude Code Routines:把编程助手变成自动化流水线
Anthropic 本周正式推出了 Claude Code Routines 功能,这是一个研究预览版特性,但已经展示了相当清晰的愿景——让 Claude Code 从「交互式助手」进化为「可编排的自动化节点」。
Routines 的核心概念很简单:把一段 Claude Code 配置(提示词 + 仓库 + MCP 连接器)打包成一个可复用的单元,然后让它在特定触发条件下自动运行。目前支持三种触发方式:
- 定时触发:按小时、每天或每周自动执行
- API 触发:通过 HTTP POST 请求携带 token 手动触发
- GitHub 触发:响应 PR、Release 等仓库事件
这意味着什么?举个例子:你可以设置一个 Routine,让它每天晚上自动检查当天新建的 issue,通过代码分析分配负责人,打上标签,然后把汇总发到 Slack。整个过程不需要你手动干预。
官方给出的典型场景还包括:
- 告警分级:监控工具通过 API 调用 Routine,自动分析日志并决定是否需要人工介入
- 依赖更新:定期扫描依赖,测试升级,自动生成 PR
- 代码审查:对新提交的 PR 进行自动化初步审查
这个功能目前面向 Pro、Max、Team 和 Enterprise 用户开放。从设计上看,Anthropic 显然希望 Claude Code 不只是「更好的终端」,而是成为开发工作流的基础设施。
Gemma 4 登陆 iPhone:端侧 AI 的实用化拐点
Google 这边,Gemma 4 模型家族带来了另一个方向的突破:原生 iPhone 离线推理。
通过 Google AI Edge Gallery App,用户现在可以直接在 iPhone 上运行 Gemma 4 模型,完全不需要联网。应用提供了 E2B 和 E4B 两种轻量变体,针对移动设备的内存和散热进行了优化。根据早期测试,推理延迟已经低到可以接受的程度——这意味着消费级硬件确实能够承载这类工作负载了。
技术细节方面,Gemma 4 利用 iPhone GPU 进行推理。31B 版本的性能与 Qwen 3.5 的 27B 版本相当,但 Google 显然更推荐 E2B 版本,因为它在速度和资源占用之间取得了更好的平衡。
更重要的是,这个应用不只是聊天界面。它集成了图像识别、语音交互和一个可扩展的 Skills 框架。Google 的定位很清晰:这不是一个 demo,而是一个端侧 AI 实验平台。
对于企业场景来说,离线能力意味着数据可以完全不出设备——这在医疗、金融、军事等对隐私要求极高的领域是硬性需求。
两个方向的交汇点
Claude Code Routines 和 Gemma 4 本地部署看起来是两个完全不同的产品,但它们指向同一个趋势:AI 工具正在从「尝鲜功能」变成「基础设施」。
云端自动化和端侧私有化不是互斥的,而是互补的。前者解决「如何让 AI 持续创造价值」的问题,后者解决「如何在受限环境下使用 AI」的问题。
对于开发者来说,这意味着选择变多了。你可以:
- 用 Routines 把重复性工作交给云端 AI 自动处理
- 用 Gemma 4 在本地构建隐私优先的 AI 应用
- 或者两者结合,在边缘设备上处理敏感数据,在云端进行复杂分析
AI 工具的实用化阶段已经到来。接下来的问题不再是「AI 能做什么」,而是「如何把它无缝嵌入现有的工作流」。