Grok 4.3

xAI

xAI 的性价比旗舰,输出快、价格低,跑量不心疼

发布日期:2026-04-30 · 覆盖数据源:3 / 5 (AA · Arena · Pricing)

xAI 4 月底发布的旗舰。AA Intelligence 53.2 全球第 7,输出价只要 $2.5/M,比同档模型便宜一半以上。速度 94.5 token/s,比 Claude Opus 快近 70%。LMArena Text 也能看到 Grok-4.20-beta1 排到第 9,说明人类盲测里表现不差。缺点是 Coding Index 41.0,全球前 12 里倒数第二,写复杂代码不是强项。SuperCLUE 3 月榜收录的是 Grok-4.20-Beta 旧版本,4.3 的新成绩待下次更新。

关键指标

AA Intelligence
53.2
全球 #7
AA Coding
41.0
Coding #19
AA Agentic
65.9
Tool/Agent 能力
输出价格
$2.50
/ 百万 token

Artificial Analysis · 独立评测

artificialanalysis.ai · 抓取于 2026-05-12
综合智能(Intelligence Index) 53.20
代码能力(Coding Index) 41.03
Agent 能力(Agentic Index) 65.89
输出速度 94.5 token/s
推理模式 是(reasoning model)

AA 是独立第三方评测站,综合 GPQA / HLE / MMLU-Pro / SciCode / Tau²-Bench / TerminalBench / IFBench 等公开基准。 同一模型不同 reasoning effort 配置 AA 拆开排,本表只取最高分那档。

LMArena · 人类盲测排名

lmarena.ai · 抓取于 2026-05-12
分类 最佳变体 排名 Elo
综合对话(Text) grok-4.20-beta1 #9 1480
联网检索(Search) grok-4.20-multi-agent-beta-0309 #10 1209

只展示 Top 10 内出现的分类与变体。同一分类下若有多个变体(thinking / search 等),只显示排名最靠前的。 LMArena 是 Elo 分,人类盲测两两投票算出来—— 「人类觉得好」≠「客观最强」,但反映真实使用体验。

SuperCLUE · 中文能力测评

未收录:SuperCLUE 3 月榜收录的是 Grok-4.20-Beta(总分 66.07),4.3 是 4 月底发布的新版本。

API 价格与国内可用性

来源 openrouter.ai · 抓取于 2026-05-12
输入价格 $1.25 / 百万 token
输出价格 $2.50 / 百万 token
上下文窗口 1000K tokens
国内可用性 需代理
最近核验 2026-05-12
同档对手价格
模型 输入 输出 国内
MiMo-V2.5-Pro · Xiaomi $1.00 $3.00 可用
MiMo-V2.5 · Xiaomi $0.40 $2.00 可用
Gemini 3 Flash Preview · Google $0.50 $3.00 不稳定
Qwen3.6 Plus · Alibaba (阿里云百炼) $0.33 $1.95 可用

什么时候选它 / 别选它

适合场景
  • 日常对话、内容生成、简单脚本——速度快、价格低,跑量不心疼
  • 需要 X 平台实时数据接入的场景
  • 预算敏感但对智能要求不极端的任务
不适合场景
  • 复杂代码任务——Coding Index 41.0,远低于 GPT-5.3 Codex 的 53.1
  • 国内无代理环境——xAI API 没有大陆节点
  • 需要极高 Agent 编排精度的任务——Agentic 65.89 不错但不是顶级

不选它的话,看看这些