GLM-5
Z AI (智谱) · 🇨🇳智谱前代旗舰,SuperCLUE 第三、开源榜第三,被 GLM-5.1 背刺了
发布日期:2026-02-11 · 覆盖数据源:3 / 5 (AA · SuperCLUE · Pricing)
智谱 AI 2 月发布的旗舰。AA Intelligence 49.77,国内前 10 守门员。SuperCLUE 3 月榜给了它一个惊喜:总分 64.27 排名第三,开源榜也是第三,幻觉控制 86.85 全榜最高。但 4 月 GLM-5.1 发布后,5 的竞争力被稀释——5.1 只贵 37%(输出 $4.4 vs $3.2),智能却高 1.6 分,上下文也从 202K 升级到 1M。如果预算紧且不需要长上下文,5 still 是个实惠选择。
关键指标
AA Intelligence
49.8
中国 #7
AA Coding
44.2
Coding #12
AA Agentic
63.1
Tool/Agent 能力
输出价格
$1.92
/ 百万 token
Artificial Analysis · 独立评测
artificialanalysis.ai · 抓取于 2026-05-12| 综合智能(Intelligence Index) | 49.77 |
| 代码能力(Coding Index) | 44.18 |
| Agent 能力(Agentic Index) | 63.14 |
| 输出速度 | 75.5 token/s |
| 推理模式 | 是(reasoning model) |
AA 是独立第三方评测站,综合 GPQA / HLE / MMLU-Pro / SciCode / Tau²-Bench / TerminalBench / IFBench 等公开基准。 同一模型不同 reasoning effort 配置 AA 拆开排,本表只取最高分那档。
SuperCLUE · 中文能力测评
superclueai.com · 2026年3月| 收录条目 | GLM-5 |
| 综合总分 | 64.27 (榜单第 11 位) |
| 代码生成 | 58.32 |
| 数学推理 | 73.95 |
| 智能体(任务规划) | 66.64 |
| 精确指令遵循 | 24.86 |
SuperCLUE 是国内做中文测评最久的独立基准。覆盖数学/科学/幻觉/指令/代码/Agent 六维。 官方说明:分差 1 分内并列,部分模型只做参考不参与排名。
API 价格与国内可用性
来源 openrouter.ai · 抓取于 2026-05-12| 输入价格 | $0.60 / 百万 token |
| 输出价格 | $1.92 / 百万 token |
| 上下文窗口 | 203K tokens |
| 国内可用性 | 可用 |
| 最近核验 | 2026-05-12 |
同档对手价格
| 模型 | 输入 | 输出 | 国内 |
|---|---|---|---|
| Qwen3.6 Plus · Alibaba (阿里云百炼) | $0.33 | $1.95 | 可用 |
| MiMo-V2.5 · Xiaomi | $0.40 | $2.00 | 可用 |
| Gemini 3.1 Flash Lite · Google | $0.25 | $1.50 | 不稳定 |
| Grok 4.3 · xAI | $1.25 | $2.50 | 需代理 |
什么时候选它 / 别选它
适合场景
- 需要开源可部署的场景——GLM-5 是开源模型,可以本地部署
- 对幻觉控制要求高的任务——SuperCLUE 幻觉控制 86.85 全榜第一
- 国内中小企业接入——智谱 API 文档完善,国内节点稳定
不适合场景
- 长上下文任务——202K 窗口,在当代旗舰里偏短
- 极致性价比——GLM-5.1 只贵 37% 但智能和上下文都更强
- 复杂代码任务——Coding Index 44.2 低于同价位多个对手