OpenAI 发布 GPT-5.3-Codex-Spark:专为实时编码优化的超高速模型,延迟降低80%
OpenAI 于 2026 年 2 月 12 日推出 GPT-5.3-Codex-Spark,这是一款专为 Codex 实时编码设计的超高速模型,作为研究预览向 ChatGPT Pro 用户开放。该模型在 SWE-Bench Pro 和 Terminal-Bench 2.0 基准测试中表现强劲,同时通过引入持久 WebSocket 连接和优化响应 API,将客户端/服务器往返开销降低 80%,首令牌时间减少 50%。基于 Cerebras Wafer Scale Engine 3 硬件,Codex-Spark 支持 128k 上下文窗口,旨在为开发者提供低延迟交互体验,标志着 Codex 向长时推理与实时协作双模式演进的关键一步。
OpenAI 发布 GPT-5.3-Codex-Spark:专为实时编码优化的超高速模型
据 OpenAI 官方披露,2026 年 2 月 12 日,公司推出了 GPT-5.3-Codex-Spark,这是一款专为 Codex 实时编码设计的超高速模型,目前作为研究预览向 ChatGPT Pro 用户开放。开发者可通过 Codex 应用、CLI 和 VS Code 扩展的最新版本体验,旨在早期测试中收集反馈,同时 OpenAI 正与 Cerebras 合作提升数据中心容量并优化端到端用户体验。
模型核心特性与性能优势
Codex-Spark 针对交互式工作流优化,在延迟和智能之间取得平衡。它支持 128k 上下文窗口,目前仅限文本输入。在 SWE-Bench Pro 和 Terminal-Bench 2.0 这两个评估代理软件工程能力的基准测试中,GPT-5.3-Codex-Spark 展现出强劲性能,完成任务所需时间仅为 GPT-5.3-Codex 的一小部分。模型默认工作风格轻量,进行最小化、针对性编辑,除非用户要求,否则不自动运行测试。
端到端延迟优化与硬件支持
在训练过程中,OpenAI 意识到模型速度仅是实时协作的一部分,因此实施了全请求-响应管道的延迟改进。通过引入持久 WebSocket 连接和优化响应 API,将每客户端/服务器往返开销降低 80%,每令牌开销减少 30%,首令牌时间缩短 50%。WebSocket 路径默认用于 Codex-Spark,并将很快成为所有模型的默认设置。
Codex-Spark 运行在 Cerebras Wafer Scale Engine 3 上,这是一个专为高速推理设计的 AI 加速器,为 Codex 提供低延迟服务层。OpenAI 与 Cerebras 合作,将此低延迟路径集成到生产服务栈中,确保与 Codex 无缝协作,并为未来模型支持奠定基础。GPU 仍作为训练和推理管道的基础,而 Cerebras 在需要极低延迟的工作流中表现优异,两者可结合以实现最佳性能。
安全评估与未来展望
Codex-Spark 包含与主线模型相同的安全训练,包括网络相关训练。经标准部署流程评估,它未达到网络安全或生物学高能力预备框架阈值。作为超高速模型系列的首款,Codex-Spark 目前为文本-only,未来可能引入更大模型、更长上下文长度和多模态输入。
OpenAI 表示,Codex-Spark 是 Codex 向双互补模式演进的第一步:长时推理与执行,以及实时协作快速迭代。随着模型能力提升,交互速度成为瓶颈,超高速推理将扩展从想法到工作软件的转化可能性。
相关文章
英伟达2026年股权投资超400亿美元:AI生态布局的深度解析
英伟达在2026年通过大规模股权投资(超400亿美元)构建AI生态,覆盖从芯片到大模型的全链条。此举不仅锁定下游客户,还确保硬件需求稳定。本文拆解其业务落地逻辑,并为企业AI化提供启示。
2026年5月10日AI与机器人投资激增175%:数字基础设施成经济增长新引擎
2026年4月,我国人工智能、人形机器人等前沿领域资本投资金额同比增长175.2%,数据、算力、网络等数字基础设施项目中标金额同比增长61.7%。消费市场延续增长,新能源车及消费电子出口势头良好。经济增长新动能持续激活。
2026年5月10日长曜创新半年融资超亿元,AI视觉导航割草机器人获数亿订单,瞄准庭院具身终端
长曜创新完成数千万元A+轮融资,半年累计融资超亿元,其AI视觉导航割草机器人Tron Ultra获数亿元意向订单。公司定位庭院具身终端,以产品与渠道差异化策略应对竞争,欧洲线下订单同比增长5倍以上。
2026年5月10日