国际线 · 顶级对决
Claude Opus 4.7 vs GPT-5.5
TL;DR
做题 GPT-5.5 全面碾压,但写前端代码 Claude Opus 4.7 反过来碾压——AA 第一对决 WebDev 第一。
关键差异
- AA Intelligence:GPT-5.5 (60.24) > Claude Opus 4.7 (57.28),3 分差
- AA Coding:GPT-5.5 (59.12) > Claude Opus 4.7 (52.51),6.6 分差
- LMArena WebDev:Claude Opus 4.7 第 1,GPT-5.5 第 9——前端方向倒挂
- 价格几乎打平:Opus $5/$25 vs GPT-5.5 $5/$30,跑量 GPT-5.5 略贵 20%
关键指标逐项对比
AA 数据抓取于 2026-05-12 · 价格抓取于 2026-05-12| 指标 | Claude Opus 4.7 | GPT-5.5 | 优胜 |
|---|---|---|---|
| AA 综合智能(Intelligence Index) 越高越好 | 57.28 | 60.24 | B |
| AA 代码能力(Coding Index) 越高越好 | 52.51 | 59.12 | B |
| AA Agent 能力(Agentic Index) 越高越好 | 71.29 | 74.12 | B |
| 输入价格($ / 百万 token) 越低越好 | $5.00 | $5.00 | ≈ |
| 输出价格($ / 百万 token) 越低越好 | $25.00 | $30.00 | A |
| 输出速度(token / 秒) 越高越好 | 56.6 | 61.7 | B |
| 上下文窗口 越大越好 | 1000K | 1050K | B |
价格差距:GPT-5.5 输出价比 Claude Opus 4.7 贵 1.20 倍($30 vs $25)
A = Claude Opus 4.7,B = GPT-5.5。空缺值表示该数据源未收录此模型,不参与优胜判定。
LMArena · 人类盲测各分类
抓取于 2026-05-12| 分类 | Claude Opus 4.7 | GPT-5.5 |
|---|---|---|
| 综合对话(Text) | #1 · 1503 | #8 · 1484 |
| 前端开发(WebDev) | #1 · 1570 | #9 · 1491 |
| 视觉理解(Vision) | #1 · 1305 | #7 · 1288 |
| 联网检索(Search) | #3 · 1236 | #2 · 1242 |
只显示 Top 10 内出现的分类。同一模型不同变体(thinking / search 等)取排名最靠前的。LMArena 是人类盲测两两投票算的 Elo 分。
国内可用性 & OpenRouter 用量
Claude Opus 4.7
- 国内可用性 需代理
- OpenRouter 本周 #4 · 1.33T
- 价格最近核验 2026-05-12
GPT-5.5
- 国内可用性 需代理
- OpenRouter 本周 未进 Top 10
- 价格最近核验 2026-05-12
OpenRouter 用量榜抓取于 2026-05-12,反映过去 7 天聚合 API 用量。免费层模型经常冲到榜首,参考时注意是「跑量」而不是「能力」。
怎么选
选 Claude Opus 4.7,如果你:
写前端 React/Vue 组件、需要 LMArena Text 综合对话第一名、做长文档严谨推理(1M 上下文)。
选 GPT-5.5,如果你:
做题正确率优先(GPQA / 数学竞赛)、Agent 编排(AA Agentic 74.12 同档最高)、复杂算法 leetcode 类。