Claude Opus 4.7

Anthropic

做题强、写代码更强,国际旗舰里最贵也最稳的一个

发布日期:2026-04-16 · 覆盖数据源:4 / 5 (AA · Arena · Pricing · OpenRouter)

Anthropic 当前最高规格的旗舰,定位推理/编程综合最强档。AA Intelligence 57.3 全球第 2(仅落后 GPT-5.5),LMArena Text 综合对话和 WebDev 前端编程两个榜都拿了第一。代价是 $25/M 输出价,撑场面够呛但跑量肉疼。

关键指标

AA Intelligence
57.3
全球 #2
AA Coding
52.5
Coding #4
AA Agentic
71.3
Tool/Agent 能力
输出价格
$25.00
/ 百万 token

Artificial Analysis · 独立评测

artificialanalysis.ai · 抓取于 2026-05-12
综合智能(Intelligence Index) 57.28
代码能力(Coding Index) 52.51
Agent 能力(Agentic Index) 71.29
输出速度 56.6 token/s
推理模式 是(reasoning model)

AA 是独立第三方评测站,综合 GPQA / HLE / MMLU-Pro / SciCode / Tau²-Bench / TerminalBench / IFBench 等公开基准。 同一模型不同 reasoning effort 配置 AA 拆开排,本表只取最高分那档。

LMArena · 人类盲测排名

lmarena.ai · 抓取于 2026-05-12
分类 最佳变体 排名 Elo
综合对话(Text) claude-opus-4-7-thinking #1 1503
前端开发(WebDev) claude-opus-4-7-thinking #1 1570
视觉理解(Vision) claude-opus-4-7-thinking #1 1305
联网检索(Search) claude-opus-4-7 #3 1236

只展示 Top 10 内出现的分类与变体。同一分类下若有多个变体(thinking / search 等),只显示排名最靠前的。 LMArena 是 Elo 分,人类盲测两两投票算出来—— 「人类觉得好」≠「客观最强」,但反映真实使用体验。

SuperCLUE · 中文能力测评

未收录:SuperCLUE 3 月榜里是 4.6 版本(总分 77.02,全榜第一);4.7 是 4 月新发布的 SOTA,下次榜单更新会接入。

API 价格与国内可用性

来源 openrouter.ai · 抓取于 2026-05-12
输入价格 $5.00 / 百万 token
输出价格 $25.00 / 百万 token
上下文窗口 1000K tokens
国内可用性 需代理
最近核验 2026-05-12
同档对手价格
模型 输入 输出 国内
GPT-5.5 · OpenAI $5.00 $30.00 需代理
Claude Sonnet 4.6 · Anthropic $3.00 $15.00 需代理
GPT-5.4 · OpenAI $2.50 $15.00 需代理
Gemini 3.1 Pro Preview · Google $2.00 $12.00 不稳定

OpenRouter 周用量

来源 openrouter.ai/rankings · 抓取于 2026-05-12
本周排名
#4
7 天 token 量
1.33T
环比变化
↑ 44%

OpenRouter 聚合多家模型 API,能跨厂商看真实开发用量。 用量排名偏向便宜+免费层——免费版常能冲到榜首,并不代表能力。

什么时候选它 / 别选它

适合场景
  • 复杂代码任务、多文件 refactor、跨工具 agent 编排
  • 长文档结构化整理(1M 上下文)、需要严谨推理的研究/法律/医学场景
  • 撑门面的高难任务,跑一次值回票价那种
不适合场景
  • 跑大批量任务——输出价比 GPT-5.5 还贵,比 Sonnet 4.6 贵 67%
  • 国内无代理场景——Anthropic 官方 API 没有大陆节点
  • 短问答客服——这种场景上 Haiku 4.5 或 DeepSeek V4 Flash 性价比高得多

不选它的话,看看这些

Claude Opus 4.7 常被拿来比的对