合作Cerebras,OpenAI首款非英伟达芯片模型上线

OpenAI于周四发布了GPT-5.3-Codex-Spark,这是其首个在Cerebras Systems芯片上提供服务的AI模型,即OpenAI首次在英伟达之外的芯片上进行生产部署。新模型是Codex的精简低功耗变体,专为快速、可中断的编码任务设计,最初作为研究预览版向ChatGPT Pro订阅者推出。

据OpenAI称,GPT-5.3-Codex-Spark针对交互式开发工作流进行了调优,例如编辑代码的特定部分和运行针对性测试,该模型在超低延迟硬件上提供服务时针对高吞吐量进行了优化。在适当配置下,它每秒可超过1,000个token,同时默认采用最小化编辑,且除非收到指令,否则不会自动执行测试。

这一切背后的硬件是Cerebras的第三代晶圆级引擎。与由许多通过高速互连连接的小型芯片构建的传统GPU集群不同,Cerebras使用单个晶圆级处理器,拥有数十万个AI核心和大量片上内存池。该架构旨在最小化数据移动并降低延迟,而延迟通常是交互式推理工作负载中的瓶颈。

OpenAI上月表示,已签署协议部署Cerebras硬件用于低延迟推理,并计划分阶段在2028年前上线750兆瓦的Cerebras支持的计算能力。虽然该容量不会取代英伟达在OpenAI训练基础设施中的角色,但它为公司提供了一个专门优化响应速度而非训练的层级。

本月初,Sam Altman在社交媒体上表示,OpenAI喜欢与英伟达合作,"他们制造了世界上最好的芯片",并补充道,"我们希望在很长一段时间内成为其巨大的客户。"此前路透社曾发布一篇有争议的报道,声称OpenAI对某些英伟达芯片不满意。

OpenAI还将与英伟达的合作伙伴关系描述为"基础性的",并表示公司仍以英伟达为核心构建其训练和推理技术栈,同时通过与Cerebras及其他公司的合作扩展其生态系统。OpenAI最强大的模型继续在英伟达系统上进行训练和服务。

OpenAI还同意在多年内部署来自AMD的6吉瓦芯片,并与博通(Broadcom)达成协议开发定制AI加速器和网络组件。

展开阅读全文

更新时间:2026-02-25

标签:科技   英伟   芯片   上线   模型   最小化   硬件   公司   协议   编辑   测试   变体

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight All Rights Reserved.
Powered By 71396.com 闽ICP备11008920号
闽公网安备35020302034903号

Top