今天读到一篇很有意思的文章:All your agents are going async。作者指出了一个正在发生的趋势——AI Agent 正在从”你主动对话”变成”它在后台运行”。

同步时代的 Agent

过去用 ChatGPT、Claude 的感觉是什么?打开网页,打字提问,等它回答。这种交互是同步的:你盯着屏幕,它给你流式输出,对话结束就完了。

几乎所有 AI SDK 的 demo 都是这种聊天界面。容易让人产生一种错觉:聊天就是 AI 的全部。

但实际情况是——聊天只是起点

异步化正在全面铺开

看看这几个月发生了什么:

OpenClaw:把 Agent 放进了 WhatsApp。你可以随时在手机上跟它对话,它也能在后台帮你干活,不用一直开着浏览器。

Claude Code

ChatGPT:推出了 scheduled tasks,可以定时触发任务。

Cursorbackground agents 在云端后台运行。

这些功能的共同点是:Agent 的生命周期不再跟你的 HTTP 连接绑定。它可以独立于你的存在而工作,完成后再把结果推给你。

传输层的困境

这里有个技术问题。

传统的 chatbot 基于 HTTP:你发一个请求,SSE 流式返回结果。一旦页面刷新,连接断开,对话就断了。

但异步 Agent 面临四种 HTTP 搞不定的场景:

  1. Agent 活得比调用者久 —— 五分钟后 Agent 完成了任务,但你已经离线了,结果往哪发?

  2. Agent 要主动推消息 —— 比如夜间代码审查完成了,想提醒你 review 三个 PR,但你没有主动请求。

  3. 人工介入点 —— 工作流跑到某一步需要人工确认,怎么通知你?

  4. 多设备切换 —— 你在电脑上启动了任务,想在手机上继续,怎么衔接?

这些问题都在逼着基础设施重新设计。

新架构的影子

Temporal、Vercel WDK、Relay.app 这些工作流引擎开始被用来编排 Agent。它们天然支持:

  • 长时运行
  • 状态持久化
  • 人工介入点
  • 定时触发

说白了,Agent 正在变成分布式系统里的一个组件,而不是聊天窗口里的一个对话对象。

这意味着什么

对开发者来说:

  • 不能再假设”用户一定在线”
  • 要设计推送、通知、状态同步机制
  • 要考虑多设备、多会话的连续性

对用户来说:

  • Agent 会越来越像”雇来的助理”,而不是”问答机器人”
  • 你可以布置任务然后走开,它干完了再找你
  • 真正的”自动化”才开始

最后

HTTP request-response 模型撑了互联网几十年,但它本来就不是为”长期运行的自主进程”设计的。

Agent 的异步化,本质上是在补全 AI 落地的最后一公里——让它真正能独立完成工作,而不需要人类全程盯着。

下一步会是什么?也许是 Agent 之间的互相委托:你的代码 Agent 发现需要设计资源,自动调用另一个设计 Agent,而你只需要在最终交付时看一眼。

那才是真正的”Multi-Agent”时代。


参考阅读:All your agents are going async by zak@zknill.io