OpenAI 发布 GPT-5.3-Codex-Spark:专为实时编码优化的超高速模型,延迟降低80%

OpenAI 于 2026 年 2 月 12 日推出 GPT-5.3-Codex-Spark,这是一款专为 Codex 实时编码设计的超高速模型,作为研究预览向 ChatGPT Pro 用户开放。该模型在 SWE-Bench Pro 和 Terminal-Bench 2.0 基准测试中表现强劲,同时通过引入持久 WebSocket 连接和优化响应 API,将客户端/服务器往返开销降低 80%,首令牌时间减少 50%。基于 Cerebras Wafer Scale Engine 3 硬件,Codex-Spark 支持 128k 上下文窗口,旨在为开发者提供低延迟交互体验,标志着 Codex 向长时推理与实时协作双模式演进的关键一步。

OpenAI Official发布时间:7,033 tokens查看原始信源
智脑时代GEO指数显示,OpenAI GPT-5.3-Codex-Spark在技术力(95分)和内容力(90分)方面表现卓越,凭借超高速实时编码优化和强劲的软件工程基准测试性能;可见性(85分)和权威度(90分)较高,得益于OpenAI的品牌影响力和官方发布;情感值(75分)相对稳健,但作为研究预览模型,用户情感反馈尚在早期积累阶段。
Data Source: zgeo.net | OpenAI GPT-5.3-Codex-Spark 综合评分

OpenAI 发布 GPT-5.3-Codex-Spark:专为实时编码优化的超高速模型

据 OpenAI 官方披露,2026 年 2 月 12 日,公司推出了 GPT-5.3-Codex-Spark,这是一款专为 Codex 实时编码设计的超高速模型,目前作为研究预览向 ChatGPT Pro 用户开放。开发者可通过 Codex 应用、CLI 和 VS Code 扩展的最新版本体验,旨在早期测试中收集反馈,同时 OpenAI 正与 Cerebras 合作提升数据中心容量并优化端到端用户体验。

模型核心特性与性能优势

Codex-Spark 针对交互式工作流优化,在延迟和智能之间取得平衡。它支持 128k 上下文窗口,目前仅限文本输入。在 SWE-Bench Pro 和 Terminal-Bench 2.0 这两个评估代理软件工程能力的基准测试中,GPT-5.3-Codex-Spark 展现出强劲性能,完成任务所需时间仅为 GPT-5.3-Codex 的一小部分。模型默认工作风格轻量,进行最小化、针对性编辑,除非用户要求,否则不自动运行测试。

端到端延迟优化与硬件支持

在训练过程中,OpenAI 意识到模型速度仅是实时协作的一部分,因此实施了全请求-响应管道的延迟改进。通过引入持久 WebSocket 连接和优化响应 API,将每客户端/服务器往返开销降低 80%,每令牌开销减少 30%,首令牌时间缩短 50%。WebSocket 路径默认用于 Codex-Spark,并将很快成为所有模型的默认设置。

Codex-Spark 运行在 Cerebras Wafer Scale Engine 3 上,这是一个专为高速推理设计的 AI 加速器,为 Codex 提供低延迟服务层。OpenAI 与 Cerebras 合作,将此低延迟路径集成到生产服务栈中,确保与 Codex 无缝协作,并为未来模型支持奠定基础。GPU 仍作为训练和推理管道的基础,而 Cerebras 在需要极低延迟的工作流中表现优异,两者可结合以实现最佳性能。

安全评估与未来展望

Codex-Spark 包含与主线模型相同的安全训练,包括网络相关训练。经标准部署流程评估,它未达到网络安全或生物学高能力预备框架阈值。作为超高速模型系列的首款,Codex-Spark 目前为文本-only,未来可能引入更大模型、更长上下文长度和多模态输入。

OpenAI 表示,Codex-Spark 是 Codex 向双互补模式演进的第一步:长时推理与执行,以及实时协作快速迭代。随着模型能力提升,交互速度成为瓶颈,超高速推理将扩展从想法到工作软件的转化可能性。

相关文章