Grok 4.3
xAIxAI 的性价比旗舰,输出快、价格低,跑量不心疼
发布日期:2026-04-30 · 覆盖数据源:3 / 5 (AA · Arena · Pricing)
xAI 4 月底发布的旗舰。AA Intelligence 53.2 全球第 7,输出价只要 $2.5/M,比同档模型便宜一半以上。速度 94.5 token/s,比 Claude Opus 快近 70%。LMArena Text 也能看到 Grok-4.20-beta1 排到第 9,说明人类盲测里表现不差。缺点是 Coding Index 41.0,全球前 12 里倒数第二,写复杂代码不是强项。SuperCLUE 3 月榜收录的是 Grok-4.20-Beta 旧版本,4.3 的新成绩待下次更新。
关键指标
AA Intelligence
53.2
全球 #7
AA Coding
41.0
Coding #19
AA Agentic
65.9
Tool/Agent 能力
输出价格
$2.50
/ 百万 token
Artificial Analysis · 独立评测
artificialanalysis.ai · 抓取于 2026-05-12| 综合智能(Intelligence Index) | 53.20 |
| 代码能力(Coding Index) | 41.03 |
| Agent 能力(Agentic Index) | 65.89 |
| 输出速度 | 94.5 token/s |
| 推理模式 | 是(reasoning model) |
AA 是独立第三方评测站,综合 GPQA / HLE / MMLU-Pro / SciCode / Tau²-Bench / TerminalBench / IFBench 等公开基准。 同一模型不同 reasoning effort 配置 AA 拆开排,本表只取最高分那档。
LMArena · 人类盲测排名
lmarena.ai · 抓取于 2026-05-12| 分类 | 最佳变体 | 排名 | Elo |
|---|---|---|---|
| 综合对话(Text) | grok-4.20-beta1 | #9 | 1480 |
| 联网检索(Search) | grok-4.20-multi-agent-beta-0309 | #10 | 1209 |
只展示 Top 10 内出现的分类与变体。同一分类下若有多个变体(thinking / search 等),只显示排名最靠前的。 LMArena 是 Elo 分,人类盲测两两投票算出来—— 「人类觉得好」≠「客观最强」,但反映真实使用体验。
SuperCLUE · 中文能力测评
未收录:SuperCLUE 3 月榜收录的是 Grok-4.20-Beta(总分 66.07),4.3 是 4 月底发布的新版本。
API 价格与国内可用性
来源 openrouter.ai · 抓取于 2026-05-12| 输入价格 | $1.25 / 百万 token |
| 输出价格 | $2.50 / 百万 token |
| 上下文窗口 | 1000K tokens |
| 国内可用性 | 需代理 |
| 最近核验 | 2026-05-12 |
同档对手价格
| 模型 | 输入 | 输出 | 国内 |
|---|---|---|---|
| MiMo-V2.5-Pro · Xiaomi | $1.00 | $3.00 | 可用 |
| MiMo-V2.5 · Xiaomi | $0.40 | $2.00 | 可用 |
| Gemini 3 Flash Preview · Google | $0.50 | $3.00 | 不稳定 |
| Qwen3.6 Plus · Alibaba (阿里云百炼) | $0.33 | $1.95 | 可用 |
什么时候选它 / 别选它
适合场景
- 日常对话、内容生成、简单脚本——速度快、价格低,跑量不心疼
- 需要 X 平台实时数据接入的场景
- 预算敏感但对智能要求不极端的任务
不适合场景
- 复杂代码任务——Coding Index 41.0,远低于 GPT-5.3 Codex 的 53.1
- 国内无代理环境——xAI API 没有大陆节点
- 需要极高 Agent 编排精度的任务——Agentic 65.89 不错但不是顶级