OpenAI 最快模型 GPT-5.3-Codex-Spark 发布:专为实时编程而生,可实现每秒超千 Token 的即时反馈

2026-02-13 发布 · 浏览26次 · 点赞0次 · 收藏0次
感谢网友 Nuc_F乌蝇哥的左手 的线索投递!

2 月 13 日消息,Cerebras 与 OpenAI 宣布推出最新的 GPT-5.3-Codex-Spark 模型,主打实时编程。这也是 OpenAI 与 Cerebras 合作的首个公开发布成果。

注:该模型由 Cerebras 提供算力支持,已于当地时间 2 月 12 日以“研究预览”(research preview)形式开放。

据介绍,Codex-Spark 主要面向对交互速度要求极高的实时软件开发场景,可实现超 1000 tokens/s 的推理速度,从而实现近乎即时响应的编码反馈。

OpenAI 在公告中指出,近年来“agentic coding”正逐渐改变软件开发方式,机器能够在较少人工监督下持续工作数小时甚至数天。但这种模式也可能带来新的问题,包括开发者等待时间变长、对过程的掌控感降低。

OpenAI 表示,软件开发本质上是迭代过程,需要开发者在过程中不断掌控方向、决定审美与决策,因此 Codex-Spark 被设计为与 Codex 进行实时协作的模型,强调“快速、响应及时、可引导”,让开发者保持在工作中的主导位置。

从定位上看,Codex-Spark 被描述为“具备高度能力的小模型”,主要针对快速推理场景进行了优化。OpenAI 称,在 SWE-Bench Pro、Terminal-Bench 2.0 等软件工程基准测试上,Codex-Spark 在完成任务耗时显著缩短的同时,能够给出比 GPT-5.1-Codex-mini 更好的回答。

在具体能力方面,OpenAI 强调 Codex-Spark 擅长进行精确代码修改、计划调整,并能围绕代码库进行上下文问答。官方还提到,该模型适用于快速可视化新布局、优化样式,以及测试新的界面变更等工作。

OpenAI 同时也对 Cerebras 硬件能力进行了介绍。据称,Wafer-Scale Engine 具备业内最大的 SoC 片上内存,可支撑用户实现每秒数千 token 级别的高速推理,并可扩展到数千套系统,将高速内存容量扩展到多 TB 级别,以支持万亿参数模型的训练与推理。OpenAI 表示,预计在 2026 年把这种“超高速推理”能力带到更大规模的前沿模型上。

在上线范围方面,OpenAI 称 Codex-Spark 将以研究预览形式向 ChatGPT Pro 用户推送,覆盖 Codex 应用、CLI 以及 VS Code 扩展,同时 API 访问将向部分设计合作伙伴逐步开放。

相关阅读:

OpenAI 最快模型 GPT-5.3-Codex-Spark 发布:专为实时编程而生,可实现每秒超千 Token 的即时反馈 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论
游客
游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。