AI Provider 最新动态:OpenAI 这版 Codex,开始把多 Agent 协作和企业接入补成默认骨架
按北京时间 2026 年 4 月 1 日 回看最近 48 小时,OpenAI 在 provider 赛道里最值得盯的一条,来自 openai/codex 的官方 release。
GitHub 官方 release 页显示,Codex 0.118.0 在 2026-03-31 发布。
这一版放出来的几项能力很集中:
- app server client 支持
device-code sign in spawn v2支持 inter-agent communicationcodex exec支持从stdin管道输入codex exec新增waitmailbox- Windows sandbox 支持
proxy-only networking - 自定义 model provider 支持动态拉取并刷新短期 bearer token
我不太想把它写成“又发了个 alpha 版本”。
因为这轮变化更像一件事:
OpenAI 在把 Codex 从个人终端助手,继续往团队级、多 Agent、可接企业网络和鉴权体系的运行时推进。
1. 这次更新到底更新了什么
先把官方变更拆开。
1) app server client 支持 device-code sign in
release 里写得很明确:
如果 browser callback 不可用,app server client 现在可以走 device-code 登录。
这条改动的含义比表面大。
很多企业环境、远程开发环境、跳板机环境,真正卡人的常常是登录回调链路。
现在这部分被补成官方能力,Codex 在受限环境里的接入阻力会小一截。
2) spawn v2 开始支持 agent 间通信
如果你还在把 Codex 理解成“一个线程做一件事”,这一条值得多看两眼。
spawn v2 支持 inter-agent communication,说明 OpenAI 不只是想让 agent 并排跑,
它开始把任务拆分、结果回传、等待协调做成显式骨架。
换句话说,重点已经不只是“能起多个 agent”,而是多个 agent 之间怎么接力。
3) stdin 管道和 wait mailbox
这两条看起来像 CLI 小修,放在一起就不是小修了。
stdin管道让codex exec更容易接进已有 shell / CI / workflowwaitmailbox 让脚本更容易等待异步结果,而不是自己糊一层轮询逻辑
很多团队真正缺的,是把 agent 安静地接进现有自动化链路,而不是再多一个对话框。
4) Windows sandbox 的 proxy-only networking
这是个很典型的运行时补洞。
Codex 要进团队环境,网络策略通常不会是“全开”或“全关”这么粗。proxy-only networking 的意义在于,你终于能把受控出口、代理审计、网络白名单放回同一条执行链里讨论。
5) custom model providers 的动态短期 token
这条我觉得很关键。
release 写的是:自定义 model providers 现在可以动态获取并刷新 short-lived bearer tokens。
这直接碰到两个老痛点:
- 长任务跑着跑着 token 过期
- 团队不想把长期密钥硬塞进 agent 运行时
官方把这件事补进去,说明 Codex 的接入视角已经越过 OpenAI 自家账户,开始认真面对企业网关、统一鉴权和多 provider 转发这些现实结构。
2. 为什么这件事现在值得看
如果这只是一个本地 CLI,我不会把它放进 provider watch。
问题在于,OpenAI 过去两个月已经把 Codex 的大方向说得很清楚:
- 2026-02-02 发布 Codex app,强调多 agent、worktree、skills、automations
- 2026-03-04 又补 Windows 可用
- 2026-03-31 的
0.118.0则继续往运行时骨架补登录、通信、邮箱、网络、鉴权
这几步连起来看,方向非常一致:
Codex 想做的,已经超出“更会写代码的模型”,它在往能接进真实团队基础设施的 agent runtime 走。
这类更新不会像新模型首发那样热闹。
但对平台团队来说,它更接近真正会改工作流的变化。
3. 它解决了哪些工程痛点
对个人开发者
如果你自己在跑多任务自动化,这版更新最直接的收益是:
codex exec更好接 shell 管道- agent 间通信开始有官方骨架
- 异步等待不用自己写太多胶水
对团队负责人
团队负责人该盯的是“是不是能更稳地接进组织环境”。
device-code sign in 和动态短期 token 这两条,很像在回答一个现实问题:
当浏览器回调、长期密钥和本地直连都不理想时,Codex 还能不能活在企业环境里。
对平台工程
平台团队会更关心这几件事:
- 多 agent 编排是不是终于有官方语义
- 运行时网络出口是不是能受控
- provider 侧鉴权是不是能做短期凭证轮转
- 异步任务等待是不是能从“脚本技巧”变成“产品能力”
这一版对平台工程的信号比对普通聊天用户大得多。
对采购和架构决策
这轮没有新的套餐或价格信号。
真正该看的,是架构弹性。
如果 Codex 能更顺畅地接进代理、统一鉴权和多 provider 网关,
那采购讨论就不再只是“买不买 OpenAI”,还会变成:
- 是否把 Codex 作为统一 agent 前端
- 模型路由和鉴权是否继续掌握在企业自己的控制面
4. 这是重大突破,还是渐进式改良
我会把它归到渐进式改良,但方向很硬。
它不是一个“从 0 到 1”的模型首发。
可它补的地方都很现实:
- 登录
- agent 协作
- 异步等待
- 受控网络
- 短期凭证
这些点单独看都不够炸裂,放在一起却很说明问题。
因为它们都属于同一类短板:
个人 demo 能跑,团队级运行时还不够顺。
OpenAI 现在就是在一段段补这类短板。
5. 现在最该做的最佳实践清单
如果你的团队已经在评估 Codex,我建议按下面顺序落地。
1) 先把接入模式分层
别把所有人都放进同一套运行方式。
至少分三层:
- 个人本地试用
- 团队受控开发环境
- CI / automation / background task
不同层级的登录、网络、凭证策略本来就不该一样。
2) 把 device-code 和浏览器回调做成双通道
浏览器回调在个人环境很好用。
团队和远程环境里,device-code 往往更稳。
别等到接入受限环境才补第二条登录链路。
3) 多 agent 编排先用在可回收任务
spawn v2 很值得跟。
但起步时别碰高风险写操作。
优先拿它做:
- 并行检索
- 草稿生成
- 只读分析
- 测试执行和结果归并
4) 把网络出口和代理策略前置
Windows sandbox 的 proxy-only networking 不是一个可以晚点再看的配置项。
它决定了团队到底能不能把 Codex 放进真实内网和审计链路。
5) 动态短期 token 要配合过期和刷新观测
短期 token 的好处很明确。
坏处也很直接:刷新失败会把长任务打断。
所以别只做“能刷新”,还要补:
- 刷新失败告警
- 到期前余量监控
- provider fallback 或人工接管策略
6. 更现实的落地顺序
如果你想把风险压低,我会建议这么走:
第 1 步:个人环境验证codex exec、stdin管道和waitmailbox第 2 步:在受控测试环境验证device-code sign in第 3 步:把动态短期 token 接进自定义 provider 或网关第 4 步:只在只读或低风险任务里试spawn v2第 5 步:再评估 Windows 受限网络和代理出口策略
这个顺序的核心,是把“协作能力、鉴权能力、网络能力”拆开验证。
别一次把所有变量叠上去。
7. 回滚思路要提前想好
这版更新偏运行时,不适合把回滚理解成“换回旧模型”。
更靠谱的回滚思路通常是:
- 暂时退回单 agent 执行,不启用
spawn v2 - 保留原有登录链路,不强依赖
device-code - 动态 token 刷新失败时回退到人工触发或更短任务切片
- Windows 环境先关闭 proxy-only 网络实验,退回已验证的代理路径
回滚的重点在运行方式,不在模型名字。
8. 谁适合马上跟进,谁不适合
适合现在就跟进的人:
- 正在建设团队级 Codex 工作流的团队
- 需要把 agent 接进企业代理、统一鉴权或多 provider 网关的团队
- 已经在做多 agent 编排,但胶水代码越来越多的团队
不适合立刻扩大的人:
- 还停留在个人对话式 coding assistant 用法的团队
- 没有代理、凭证、审计基础设施的团队
- 对 Windows 受限网络和身份链路还没摸清边界的团队
9. 风险、边界与冷思考
这轮更新值得重视,但别把它理解成“Codex 团队级运行时已经补完了”。
我会盯这几个边界:
spawn v2的真实稳定性还要看更多版本演进- 动态 token 刷新把安全问题压下去了,也把运行时依赖复杂度抬高了
proxy-only networking解决的是出口控制,不是全部网络治理device-code sign in适合很多受限环境,但也会带来新的身份流转和审计要求
我不会把它解读成“可以无脑扩张 agent 权限”的信号。
更接近的判断是:官方终于开始认真补团队环境里的硬问题。
参考来源(一手)
- GitHub Official Release Feed:openai/codex 0.118.0
- OpenAI Official:Introducing the Codex app
- OpenAI Official:Unlocking the Codex harness: how we built the App Server