2026-05-12 · 入门指南

国内 LLM API 怎么开通:6 家厂商的实操对照

从注册到拿到第一个 API key 平均要 10 分钟,但每家踩坑点不一样。 这篇把 DeepSeek、阿里百炼、Kimi、智谱、火山豆包、MiniMax 的开通路径放一起对比——重点在实名认证、付费方式、是否兼容 OpenAI SDK 这三件事。

一句话版

  • 想最快跑起来——上 DeepSeek。手机号 + 充值 10 块就能调,价格全网最低(输入 $0.14 / 输出 $0.28/M)。
  • 公司项目要发票走预算——上 阿里百炼火山引擎。云厂商背书,合同走得顺。
  • 要长文本——Kimi(Moonshot AI)。256K 上下文是它的主场。
  • 要兼容 OpenAI SDK 直接搬代码——绝大多数家都兼容,但参数细节不同,下面分述。

开通前你要准备的东西

国内所有厂商无一例外要手机号 + 实名认证。 个人调用通常身份证就够;企业项目要营业执照、对公账户、法人手持身份证照片,整套审核 1–3 个工作日。

实名做一次能复用——同一个云厂商账号下不需要重复认证。但跨厂商各家是独立体系, 阿里、火山、百度都得各做一遍。提前把扫描件备好, 能省一半折返时间。

海外护照、港澳台居民居住证大多数家也能过,但走"国际版"通道——比如 DeepSeek 海外版用 Stripe 付费,国内版用微信支付宝。两套定价偶有差异。

DeepSeek(深度求索)

地址:platform.deepseek.com

开通流程最简单的一家。手机号注册 → 实名认证(身份证)→ 充值(最低 10 元起)→ 「API keys」页面生成 key,5 分钟搞定。 完全兼容 OpenAI SDK,把 base_url 改成 https://api.deepseek.com 就行,model 填 deepseek-chatdeepseek-reasoner

坑点:无免费试用额度——必须充值才能调。但价格压到 输入 $0.14 / 输出 $0.28/M 这个水平, 10 块钱够测一整周。另外 DeepSeek 自家的 prompt caching 是默认开启的,缓存命中按 1 折计费,写代码时记得让相同前缀的 prompt 排在前面。

阿里云百炼(通义千问 / Qwen)

地址:bailian.console.aliyun.com

流程:开通阿里云账号 → 实名 → 进入「百炼」控制台 → 开通模型服务(按模型一个一个开通,免费试用配额送)→ API-Key 页面创建 key。 百炼的 Qwen3.6 Max Preview(输入 $1.04 / 输出 $6.24/M)、Qwen3.6 Plus 都在这条线。

兼容性:百炼提供两套接口——DashScope 原生 SDKOpenAI 兼容模式(base_url 改为 https://dashscope.aliyuncs.com/compatible-mode/v1)。 后者搬代码方便,前者支持百炼独有功能(如多模态、RAG 套件)。

坑点:每个模型要单独开通——首次调用前要在控制台点一下"开通"按钮,否则报 ModelNotEnabled 错误。 另外百炼有阶梯定价(同模型免费 → 标准 → 企业),看清自己在哪一档。

Kimi(Moonshot AI / 月之暗面)

地址:platform.moonshot.cn

开通:手机号 + 实名 → 控制台「API Key 管理」生成 key → 默认送 15 元免费额度(足够测两三天)。 完全兼容 OpenAI SDK,base_url 是 https://api.moonshot.cn/v1,model 写 moonshot-v1-8k / -32k / -128k 这种"模型+上下文窗口"的组合,长度选错会拒。

坑点:上下文窗口直接写进模型名——和别家"动态扩展"不同,Kimi 是固定档位的。 想要 K2.6 旗舰能力 + 长文本,要选对应的 model 名,价格也差好几倍。OpenRouter 路由的 Kimi K2.6(输入 $0.74 / 输出 $3.50/M)走的是 Moonshot 官方接口的简化版。

智谱 Z.ai(GLM)

地址:open.bigmodel.cn (海外版叫 z.ai)

开通:注册 → 实名 → 「API 密钥」创建。新用户送 token 配额,能用一段时间不收费。 GLM 5.1(输入 $0.98 / 输出 $3.08/M)和 GLM 5(输入 $0.60 / 输出 $1.92/M)都在这。

兼容性:智谱有自家 SDK(zhipuai),也有 OpenAI 兼容模式(https://open.bigmodel.cn/api/paas/v4)。 自家 SDK 用 JWT token 鉴权——把 API key 拆成 id 和 secret 再签名生成临时 token,比常规 Bearer key 多一步。OpenAI 兼容模式就简单了,直接 Bearer。

坑点:GLM 系列在做 Agent / 工具调用时,function calling 协议和 OpenAI 不完全一样, 自家 SDK 的 tools 参数结构更稳。

火山引擎方舟(豆包 / Doubao)

地址:volcengine.com/product/ark (进了「方舟大模型平台」)

开通:注册火山引擎账号 → 实名 → 进入"方舟"控制台 → 创建推理接入点(endpoint)→ 拿 API key。 字节系生态里跑得最快——豆包模型免费额度送得大方,企业实名后单价也有折扣。

兼容性:方舟接口走"接入点"而不是模型名——你在控制台把"豆包通用模型-Pro"绑到一个 endpoint id(形如 ep-xxx),调用时 model 字段填这个 id。这是和 OpenAI 体系最大的差异。 OpenAI 兼容模式 base_url 是 https://ark.cn-beijing.volces.com/api/v3

坑点:endpoint 要按地域开——华北、华东价格延迟略有差异。 另外火山的计费细节藏在账单里,前期最好开一个低额度的子账号测试,免得跑量超预算。

MiniMax 海螺 AI

地址:platform.minimaxi.com

开通:手机号 + 实名 → 「接口密钥」生成 → 充值即可。MiniMax M2.7(输入 $0.20 / 输出 $1.20/M)是它当前主力, 走 Agent / 多模态路线,性价比在国内排前几。

兼容性:MiniMax 自家 SDK 风格比较独特,不是默认 OpenAI 兼容—— 单独有 https://api.minimax.chat/v1/text/chatcompletion_v2 端点。 想用 OpenAI SDK 要找它的"OpenAI 兼容文档页面"按指引切。语音、视频生成是它的强项,要做配音/视频的项目优先考虑。

坑点:国际版(minimax.io)和国内版(minimaxi.com)分开——账号、定价、接口都不互通,按业务所在地选。

放一起比一比

厂商 免费额度 OpenAI 兼容 代表模型
DeepSeek 无 / 充值 10 元起 完全兼容 DeepSeek V4 Pro / Flash
阿里百炼 按模型送,常见模型有 兼容模式可选 Qwen3.6 Max / Plus
Kimi 送 15 元 完全兼容 Kimi K2.6(长文本主场)
智谱 Z.ai 送 token 配额 兼容模式可选 GLM 5.1 / GLM 5
火山方舟 豆包模型有较多免费 兼容模式,但走 endpoint 豆包系列
MiniMax 看运营活动 部分支持 MiniMax M2.7 / 海螺

表中信息按各厂商官方文档整理,免费额度因活动浮动,调用前请回控制台确认当前规则。

第一次调用:最小可运行示例

以 DeepSeek 为例(其他兼容 OpenAI 的家把 base_url 和 model 改了即可):

from openai import OpenAI

client = OpenAI(
    api_key="sk-你的key",
    base_url="https://api.deepseek.com",
)

resp = client.chat.completions.create(
    model="deepseek-chat",
    messages=[{"role": "user", "content": "用 Python 写一个快排"}],
)
print(resp.choices[0].message.content)

这个三行级别的代码块换 base_url 就能跑通阿里百炼(compatible-mode)、Kimi、智谱兼容模式、火山方舟。 各家的差异主要在 model 名是否支持 streamingfunction calling 协议这几点。

几个真实踩坑提示

  • 余额不足触发限流——很多家"配额用完"和"余额 0"是分开的两种错。 前者要换模型档位,后者要充钱。报错码看清。
  • key 不要写在前端代码里——这是反复说的事,但每周都有人把 key 提交到 GitHub 公开仓库。 被白嫖几小时账户清零,自己也要负责。API 算账指南里有详细说明。
  • 企业账户开发票要走对公——个人账户实名后充值能开普通发票(电子), 企业项目大概率要走公司账户 + 增值税专票,提前问清财务流程。
  • 国产 SDK 文档质量参差不齐——百炼、火山的文档相对完整;MiniMax、智谱有些参数要靠社区 issue 才能搞明白。 遇到坑先翻 GitHub Discussions 再发邮件。
  • 同模型不同接入价格不同——OpenRouter、SiliconFlow 这种聚合层会有自家定价, 和厂商直连可能差 10%–30%。跑量大的项目算账记得对比。

不想注册多家:聚合层的选择

如果你只是想试试,不想为了一个模型注册一家公司账号,可以走聚合层:

  • SiliconFlow(硅基流动):国内合规,覆盖 DeepSeek、Qwen、GLM、Kimi 等主流国产模型,一个 key 调全部。新人有免费额度。
  • OpenRouter:国际聚合,国内访问要走代理,但能拿到 Claude / GPT / Gemini 全家桶 + 国产开源全家桶,本站价格表就来自它的 API。
  • Together / Fireworks:偏国际+开源,跑 Llama、Mistral 这类开源模型最划算。

聚合层的代价是价格略贵 + 偶尔的稳定性问题——大流量生产建议还是直连厂商,开发测试阶段聚合层完全够用。