Claude Opus 4.6和Sonnet 4.6的100万上下文终于全面开放。

最核心的变化是,长文本不再加收任何溢价费用。在这两款模型的完整百万窗口内,统统适用标准计费规则。Opus 4.6的百万Token输入输出价格分别为5美元和25美元,Sonnet 4.6则为3美元和15美元。这里不存在任何倍率套路,发起一次90万Token的请求与9千Token的请求,单价完全一致。

随着此次正式版上线,具体迎来了以下核心升级:

首先是计费与速率的全量打通。除了统一的标准定价外,所有上下文长度均享受完整的速率限制,用户的标准账户吞吐量在整个百万窗口内完全适用。

多模态处理能力直接飙升六倍。单次请求支持的图像或PDF页面数量上限从100骤增至600。该功能已在Claude原生平台、微软Azure Foundry以及谷歌云Vertex AI同步可用。

API调用变得更加无缝。超过20万Token的长请求现在会自动处理,不再需要添加Beta测试版请求头。如果开发者原本的代码里包含该测试版请求头,系统也会直接忽略,完全不需要修改现有代码。

针对Claude Code的用户,100万上下文现在已直接内置于Max、Team和Enterprise版本的Opus 4.6中。过去这部分百万级上下文需要消耗额外的使用量,现在Opus 4.6会话会自动调用完整窗口。这大幅减少了上下文的强制压缩次数,让更多的对话记录得以完整保留。

当然,百万级吞吐量的前提是模型能够准确召回细节并进行有效推理。在MRCR v2评测中,Opus 4.6拿下了78.3%的分数,在所有具备同等上下文长度的前沿大模型中位列第一。

这种长文本处理能力带来了最直接的应用改变:开发者现在可以直接把整个代码库、长达几千页的合同文件,或者包含工具调用、观察结果和中间推理步骤的长周期智能体完整运行轨迹,原封不动地交给模型处理。过去处理长文本必须依赖的工程化改造、有损摘要提取以及上下文清理工作,现在统统成为历史,整个交互过程得以原汁原味地保留。

目前,这项100万上下文能力已经可以通过Claude原生平台,以及亚马逊Bedrock、谷歌云Vertex AI和微软Foundry直接使用。Claude Code的高级订阅用户只要切换至Opus 4.6模型,即可默认开启百万上下文体验。

本文来源:AI寒武纪

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。