ITCOW牛新网 2月13日消息,OpenAI与芯片公司Cerebras Systems于当地时间2月12日联合发布了新一代代码模型GPT-5.3-Codex-Spark。该模型依托Cerebras的晶圆级引擎(WSE)技术,实现了每秒超过1000个token的推理速度,旨在为开发者提供“实时编程”体验,显著降低AI辅助编码的响应延迟。

据ITCOW牛新网了解,这一超高速性能得益于Cerebras的第三代晶圆级引擎(WSE-3)。该芯片采用单晶圆设计,集成了4万亿个晶体管和90万个计算核心,拥有业内最大的片上内存,其架构彻底消除了传统多芯片集群间的通信延迟,为低延迟推理提供了硬件保障。这也是OpenAI与Cerebras签署超100亿美元合作协议后的首个重要落地成果。
GPT-5.3-Codex-Spark专为对交互速度要求极高的编程场景设计,擅长进行精确的代码修改、计划调整以及上下文问答,适用于快速可视化新布局、优化样式和测试界面变更等工作。与强调长时间自主运行的Agent模式不同,该模型更注重“人在回路中”的协同开发,让开发者保持对代码方向的主导权。
目前,该模型以“研究预览”形式向ChatGPT Pro用户开放,支持Codex应用、CLI以及VS Code扩展。API访问权限将逐步向部分设计合作伙伴开放。OpenAI表示,预计在2026年将这种超高速推理能力扩展到更大规模的前沿模型上,进一步推动AI编程工具的实时交互体验。