OpenAI正在减少对英伟达的依赖,本周四发布了首个运行在Cerebras Systems芯片上的AI模型,标志着这家AI明星在供应商多元化策略上迈出关键一步。此举正逢OpenAI与英伟达关系微妙,双方去年秋季宣布的千亿美元合作如今据称陷入停滞。

GPT-5.3-Codex-Spark专为实时编码设计,是OpenAI最新代码自动化软件Codex的精简版,旨在提供更快响应速度以换取部分性能。OpenAI称该模型生成速度比前代产品快15倍,每秒可输出超过1000个token。这是OpenAI 2026年1月与Cerebras签署超过100亿美元协议后的首个成果。

该模型率先向ChatGPT Pro订阅用户开放研究预览版,并通过Codex应用、命令行界面和Visual Studio Code扩展提供服务。OpenAI表示,Codex目前拥有超过100万周活跃用户,过去十天下载量超过100万次。

这一发布凸显了OpenAI在AI编码助手市场的竞争压力。该公司正面临来自谷歌、Anthropic等对手的激烈竞争,同时还需应对内部安全团队解散、研究人员离职以及在ChatGPT中引入广告等争议。

Codex-Spark代表OpenAI首个专为实时编码协作打造的模型。该公司声称生成速度提升15倍,但拒绝提供具体延迟指标,如首token时间或每秒token数。

"我们无法分享具体延迟数字,但Codex-Spark经过优化,能够提供近乎即时的感受——在保持真实编码任务高度能力的同时,实现15倍更快的生成速度,"OpenAI发言人表示。

这种速度提升以能力妥协为代价。在SWE-Bench Pro和Terminal-Bench 2.0这两个评估AI系统自主执行复杂软件工程任务能力的行业基准测试中,Codex-Spark的表现不及完整版GPT-5.3-Codex模型。OpenAI将此定位为可接受的权衡:开发者能够获得足够快的响应以保持创作流畅性,即使底层模型无法处理最复杂的多步骤编程挑战。

该模型配备128000个token的上下文窗口,仅支持文本输入,不支持图像或多模态输入。小部分企业合作伙伴将获得API访问权限以评估集成可能性。OpenAI计划在未来几周根据实际工作负载调整后扩大访问范围。

Codex-Spark背后的技术架构反映出推理经济学在AI公司扩展面向消费者产品时日益重要。Cerebras的第三代晶圆级引擎是一块约餐盘大小的单芯片,包含4万亿个晶体管,消除了AI工作负载分散到多个小型处理器集群时产生的大量通信开销。

对于训练大规模模型,分布式方法仍然必要,英伟达GPU在此表现出色。但对于推理——即生成用户查询响应的过程——Cerebras认为其架构可以以显著更低的延迟交付结果。Cerebras首席技术官兼联合创始人Sean Lie将这一合作视为重塑开发者与AI系统交互方式的机会。

"GPT-5.3-Codex-Spark最令我们兴奋的是与OpenAI及开发者社区合作,探索快速推理带来的可能性——新的交互模式、新的用例,以及根本不同的模型体验,"Lie在声明中表示。"这次预览仅仅是开始。"

OpenAI的基础设施团队并未将优化工作局限于Cerebras硬件。该公司宣布在整个推理堆栈中实现延迟改进,使所有Codex模型受益,包括持久WebSocket连接和Responses API内的优化。结果显示:每次客户端-服务器往返开销减少80%,每token开销减少30%,首token时间减少50%。

鉴于OpenAI与英伟达之间日益复杂的关系,Cerebras合作意义重大。

2025年9月,英伟达与OpenAI宣布签署意向书确立达成战略合作,OpenAI将利用英伟达的系统打造和部署至少10千兆瓦(GW)的AI数据中心,使用数百万块英伟达的图形处理器(GPU)训练和部署OpenAI的下一代AI模型,英伟达则计划对OpenAI投资最高1000亿美元。这是英伟达迄今为止做出的最大手笔投资承诺。

以上战略合作声明似乎巩固了全球最有价值AI公司与主导芯片供应商之间的战略联盟。

五个月后,据多个报道,上述巨额交易已实质性停滞。英伟达CEO黄仁勋公开否认存在紧张关系,1月下旬告诉记者"没有戏剧性",英伟达仍致力于参与OpenAI当前融资轮。但双方关系已明显降温,评论认为摩擦源于多个方面。

OpenAI积极寻求与替代芯片供应商的合作,包括与Cerebras的交易以及分别与AMD和博通签署协议。2025年10月,OpenAI与英伟达竞争对手AMD达成重磅协议,将在多年内部署6GW的AMD GPU。同月晚些时候,OpenAI同意从博通购买定制芯片和网络组件。

从英伟达角度看,OpenAI可能正在利用其影响力将使其AI突破成为可能的硬件商品化。从OpenAI角度看,减少对单一供应商的依赖代表着审慎的商业策略。

OpenAI发言人本周四告诉媒体,“将继续与生态系统合作,持续评估所有用例中性价比最高的芯片”,“对于研究和推理等对成本敏感且以吞吐量为先的应用场景,GPU 仍然是我们的首选。”

这一声明体现出避免激怒英伟达同时保留灵活性的谨慎努力,也反映出训练前沿AI模型仍需要英伟达GPU提供的大规模并行处理能力。

OpenAI发言人在周四的声明中表示,OpenAI与英伟达的合作关系是“基础性的”,OpenAI最强大的AI模型是两家公司“多年来在硬件和软件工程方面并肩合作”的结果。“这就是为什么我们将英伟达作为训练和推理堆栈的核心,同时通过与Cerebras、AMD和博通的合作有意扩展其周围的生态系统。”

Codex-Spark发布之际,OpenAI正应对一系列内部挑战,加剧了外界对该公司方向和价值观的审视。据本周报道,OpenAI解散了其使命对齐团队,该团队于2024年9月成立,旨在推动公司确保通用人工智能造福人类的既定目标。团队七名成员已被重新分配到其他岗位,负责人Joshua Achiam获得"首席未来学家"的新头衔。

OpenAI此前在2024年解散了另一个关注安全的团队——超级对齐团队,该团队专注于AI带来的长期存在性风险。解散安全导向团队的模式招致研究人员批评,他们认为OpenAI的商业压力正在压倒其最初的非营利使命。

该公司还面临在ChatGPT中引入广告决定带来的后果。研究员Zoë Hitzig本周因她所描述的广告支持AI的"滑坡效应"而辞职,在《纽约时报》撰文警告称,ChatGPT存档的亲密用户对话记录为操纵创造了前所未有的机会。Anthropic在超级碗广告中趁机打出标语:"广告正进入AI。但不会进入Claude。"

另外,该公司同意通过Genai.mil向五角大楼提供ChatGPT,这是美国国防部的新项目,要求OpenAI允许"所有合法使用"而不受公司施加的限制——据报道Anthropic拒绝了这些条款。还有报道称,曾对计划中的露骨内容功能表达担忧的OpenAI产品政策副总裁Ryan Beiermeister在1月份因歧视指控被解雇,她否认该指控。

尽管周围动荡不安,OpenAI针对Codex的技术路线图仍显示出雄心勃勃的计划。OpenAI设想推出一种编码助手,能够无缝融合快速交互式编辑与长期运行的自主任务——一个既能处理快速修复,又能同时协调多个代理在后台处理更复杂问题的AI。

OpenAI发言人告诉媒体:“随着时间推移,这些模式将融合——Codex可以让你保持紧密的交互循环,同时将长期运行的工作委派给后台子代理,或者在你需要广度和速度时将任务并行分配给多个模型,这样你就不必预先选择单一模式。”

这一愿景不仅需要更快的推理速度,还需要复杂的任务分解以及不同规模和能力模型之间的协调。Codex-Spark为该体验的交互部分建立了低延迟基础;未来版本需要提供自主推理和多代理协调能力,才能实现完整愿景。

目前,Codex-Spark采用与其他OpenAI模型分开的速率限制,反映出研究预览期间Cerebras基础设施容量受限。"因为它运行在专门的低延迟硬件上,使用受单独速率限制管控,在研究预览期间可能根据需求调整,"发言人指出。这些限制被设计为"慷慨的",OpenAI在决定如何扩展时监控使用模式。

Codex-Spark的发布正值AI驱动开发工具激烈竞争之际。Anthropic的Claude Cowork产品上周引发传统软件股抛售,因投资者考虑AI助手是否可能取代传统企业应用。微软、谷歌和亚马逊继续在与各自云平台集成的AI编码能力上大举投资。

OpenAI的Codex应用自推出十天以来展现出快速采用势头,周活跃用户周环比增长60%。目前超过32.5万开发者在免费和付费层级积极使用Codex。但OpenAI及更广泛AI行业面临的根本问题是,像Codex-Spark承诺的速度改进是否能转化为有意义的生产力提升,还是仅仅创造更愉快的体验而不改变结果。

Cerebras交易是一个经过计算的赌注:专用硬件可以解锁通用GPU无法经济高效服务的用例。对于一家同时与竞争对手作战、管理紧张供应商关系并应对内部对其商业方向异议的公司而言,这也提醒人们,在AI竞赛中,原地不动不是选项。OpenAI通过快速行动和打破常规建立了声誉。现在它必须证明自己可以行动得更快——而不会破坏自己。

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。