国内 LLM API 怎么开通:6 家厂商的实操对照
从注册到拿到第一个 API key 平均要 10 分钟,但每家踩坑点不一样。 这篇把 DeepSeek、阿里百炼、Kimi、智谱、火山豆包、MiniMax 的开通路径放一起对比——重点在实名认证、付费方式、是否兼容 OpenAI SDK 这三件事。
一句话版
- 想最快跑起来——上 DeepSeek。手机号 + 充值 10 块就能调,价格全网最低(输入 $0.14 / 输出 $0.28/M)。
- 公司项目要发票走预算——上 阿里百炼或火山引擎。云厂商背书,合同走得顺。
- 要长文本——Kimi(Moonshot AI)。256K 上下文是它的主场。
- 要兼容 OpenAI SDK 直接搬代码——绝大多数家都兼容,但参数细节不同,下面分述。
开通前你要准备的东西
国内所有厂商无一例外要手机号 + 实名认证。 个人调用通常身份证就够;企业项目要营业执照、对公账户、法人手持身份证照片,整套审核 1–3 个工作日。
实名做一次能复用——同一个云厂商账号下不需要重复认证。但跨厂商各家是独立体系, 阿里、火山、百度都得各做一遍。提前把扫描件备好, 能省一半折返时间。
海外护照、港澳台居民居住证大多数家也能过,但走"国际版"通道——比如 DeepSeek 海外版用 Stripe 付费,国内版用微信支付宝。两套定价偶有差异。
DeepSeek(深度求索)
开通流程最简单的一家。手机号注册 → 实名认证(身份证)→ 充值(最低 10 元起)→ 「API keys」页面生成 key,5 分钟搞定。
完全兼容 OpenAI SDK,把 base_url 改成 https://api.deepseek.com 就行,model 填 deepseek-chat 或 deepseek-reasoner。
坑点:无免费试用额度——必须充值才能调。但价格压到 输入 $0.14 / 输出 $0.28/M 这个水平, 10 块钱够测一整周。另外 DeepSeek 自家的 prompt caching 是默认开启的,缓存命中按 1 折计费,写代码时记得让相同前缀的 prompt 排在前面。
阿里云百炼(通义千问 / Qwen)
流程:开通阿里云账号 → 实名 → 进入「百炼」控制台 → 开通模型服务(按模型一个一个开通,免费试用配额送)→ API-Key 页面创建 key。 百炼的 Qwen3.6 Max Preview(输入 $1.04 / 输出 $6.24/M)、Qwen3.6 Plus 都在这条线。
兼容性:百炼提供两套接口——DashScope 原生 SDK 和 OpenAI 兼容模式(base_url 改为 https://dashscope.aliyuncs.com/compatible-mode/v1)。
后者搬代码方便,前者支持百炼独有功能(如多模态、RAG 套件)。
坑点:每个模型要单独开通——首次调用前要在控制台点一下"开通"按钮,否则报 ModelNotEnabled 错误。 另外百炼有阶梯定价(同模型免费 → 标准 → 企业),看清自己在哪一档。
Kimi(Moonshot AI / 月之暗面)
开通:手机号 + 实名 → 控制台「API Key 管理」生成 key → 默认送 15 元免费额度(足够测两三天)。
完全兼容 OpenAI SDK,base_url 是 https://api.moonshot.cn/v1,model 写 moonshot-v1-8k / -32k / -128k 这种"模型+上下文窗口"的组合,长度选错会拒。
坑点:上下文窗口直接写进模型名——和别家"动态扩展"不同,Kimi 是固定档位的。 想要 K2.6 旗舰能力 + 长文本,要选对应的 model 名,价格也差好几倍。OpenRouter 路由的 Kimi K2.6(输入 $0.74 / 输出 $3.50/M)走的是 Moonshot 官方接口的简化版。
智谱 Z.ai(GLM)
地址:open.bigmodel.cn (海外版叫 z.ai)
开通:注册 → 实名 → 「API 密钥」创建。新用户送 token 配额,能用一段时间不收费。 GLM 5.1(输入 $0.98 / 输出 $3.08/M)和 GLM 5(输入 $0.60 / 输出 $1.92/M)都在这。
兼容性:智谱有自家 SDK(zhipuai),也有 OpenAI 兼容模式(https://open.bigmodel.cn/api/paas/v4)。
自家 SDK 用 JWT token 鉴权——把 API key 拆成 id 和 secret 再签名生成临时 token,比常规 Bearer key 多一步。OpenAI 兼容模式就简单了,直接 Bearer。
坑点:GLM 系列在做 Agent / 工具调用时,function calling 协议和 OpenAI 不完全一样,
自家 SDK 的 tools 参数结构更稳。
火山引擎方舟(豆包 / Doubao)
地址:volcengine.com/product/ark (进了「方舟大模型平台」)
开通:注册火山引擎账号 → 实名 → 进入"方舟"控制台 → 创建推理接入点(endpoint)→ 拿 API key。 字节系生态里跑得最快——豆包模型免费额度送得大方,企业实名后单价也有折扣。
兼容性:方舟接口走"接入点"而不是模型名——你在控制台把"豆包通用模型-Pro"绑到一个 endpoint id(形如 ep-xxx),调用时 model 字段填这个 id。这是和 OpenAI 体系最大的差异。
OpenAI 兼容模式 base_url 是 https://ark.cn-beijing.volces.com/api/v3。
坑点:endpoint 要按地域开——华北、华东价格延迟略有差异。 另外火山的计费细节藏在账单里,前期最好开一个低额度的子账号测试,免得跑量超预算。
MiniMax 海螺 AI
开通:手机号 + 实名 → 「接口密钥」生成 → 充值即可。MiniMax M2.7(输入 $0.20 / 输出 $1.20/M)是它当前主力, 走 Agent / 多模态路线,性价比在国内排前几。
兼容性:MiniMax 自家 SDK 风格比较独特,不是默认 OpenAI 兼容——
单独有 https://api.minimax.chat/v1/text/chatcompletion_v2 端点。
想用 OpenAI SDK 要找它的"OpenAI 兼容文档页面"按指引切。语音、视频生成是它的强项,要做配音/视频的项目优先考虑。
坑点:国际版(minimax.io)和国内版(minimaxi.com)分开——账号、定价、接口都不互通,按业务所在地选。
放一起比一比
| 厂商 | 免费额度 | OpenAI 兼容 | 代表模型 |
|---|---|---|---|
| DeepSeek | 无 / 充值 10 元起 | 完全兼容 | DeepSeek V4 Pro / Flash |
| 阿里百炼 | 按模型送,常见模型有 | 兼容模式可选 | Qwen3.6 Max / Plus |
| Kimi | 送 15 元 | 完全兼容 | Kimi K2.6(长文本主场) |
| 智谱 Z.ai | 送 token 配额 | 兼容模式可选 | GLM 5.1 / GLM 5 |
| 火山方舟 | 豆包模型有较多免费 | 兼容模式,但走 endpoint | 豆包系列 |
| MiniMax | 看运营活动 | 部分支持 | MiniMax M2.7 / 海螺 |
表中信息按各厂商官方文档整理,免费额度因活动浮动,调用前请回控制台确认当前规则。
第一次调用:最小可运行示例
以 DeepSeek 为例(其他兼容 OpenAI 的家把 base_url 和 model 改了即可):
from openai import OpenAI
client = OpenAI(
api_key="sk-你的key",
base_url="https://api.deepseek.com",
)
resp = client.chat.completions.create(
model="deepseek-chat",
messages=[{"role": "user", "content": "用 Python 写一个快排"}],
)
print(resp.choices[0].message.content) 这个三行级别的代码块换 base_url 就能跑通阿里百炼(compatible-mode)、Kimi、智谱兼容模式、火山方舟。 各家的差异主要在 model 名、是否支持 streaming、function calling 协议这几点。
几个真实踩坑提示
- 余额不足触发限流——很多家"配额用完"和"余额 0"是分开的两种错。 前者要换模型档位,后者要充钱。报错码看清。
- key 不要写在前端代码里——这是反复说的事,但每周都有人把 key 提交到 GitHub 公开仓库。 被白嫖几小时账户清零,自己也要负责。API 算账指南里有详细说明。
- 企业账户开发票要走对公——个人账户实名后充值能开普通发票(电子), 企业项目大概率要走公司账户 + 增值税专票,提前问清财务流程。
- 国产 SDK 文档质量参差不齐——百炼、火山的文档相对完整;MiniMax、智谱有些参数要靠社区 issue 才能搞明白。 遇到坑先翻 GitHub Discussions 再发邮件。
- 同模型不同接入价格不同——OpenRouter、SiliconFlow 这种聚合层会有自家定价, 和厂商直连可能差 10%–30%。跑量大的项目算账记得对比。
不想注册多家:聚合层的选择
如果你只是想试试,不想为了一个模型注册一家公司账号,可以走聚合层:
- SiliconFlow(硅基流动):国内合规,覆盖 DeepSeek、Qwen、GLM、Kimi 等主流国产模型,一个 key 调全部。新人有免费额度。
- OpenRouter:国际聚合,国内访问要走代理,但能拿到 Claude / GPT / Gemini 全家桶 + 国产开源全家桶,本站价格表就来自它的 API。
- Together / Fireworks:偏国际+开源,跑 Llama、Mistral 这类开源模型最划算。
聚合层的代价是价格略贵 + 偶尔的稳定性问题——大流量生产建议还是直连厂商,开发测试阶段聚合层完全够用。
相关阅读
- 中文用户怎么选 LLM:2026 上半年盘点 — 选完厂商再决定具体跑哪个模型
- API 调用怎么算账:百万 token 到底等于多少钱 — 拿到 key 后第一次跑量前必看
- 回首页看多源价格 / 排名对照