跳到主要内容

模型提供商

1. 供应商分类

模型提供商可分为四大类:

分类代表适合谁
聚合供应商七牛云、DMXAPI、OpenRouter一个 Key 用多家模型,入门首选
国内厂家模型DeepSeek、Qwen、GLM、Kimi、豆包、混元等国内网络直连、支付宝付款、低延迟
国外厂家模型OpenAI、Anthropic、Google、xAI、Mistral追求最强模型能力,需科学上网或海外节点
本地部署Ollama、LM Studio完全离线、零成本、数据不出本机

2. 聚合提供商

不想到各家模型平台注册一堆账号?聚合供应商提供的api能让你用一个 API Key 访问多家模型,还能在模型之间自由切换。

七牛云

七牛云国内老牌云厂商,提供统一 API 接入50 + 主流闭源 / 开源大模型,兼容 OpenAI 与 Anthropic 接口。

核心优势:

  • 新人活动:注册成功调用就送300万全模型免费额度资源包
  • 资金雄厚:不用担心充值后怕路问题
  • 模型选择:支持包括 Kimi、DeepSeek、Doubao、Qwen 等在内的国内主流 AI 模型

DMXAPI

DMXAPI 汇聚了国内外300+多模态大型人工智能模型,全面支持文生文、文生图、文生视频、文生音频等多种模态API。

核心优势:

  • 模型全面:国内外主流模型都有,每种模型价格都明确标注了价格
  • 透明定价:在每个模型页面直接显示价格,按用量付费,无月费
  • 长期有折扣:通过与大模型原厂合作集中采购,获得代理价格。
  • 付款方便:直接通过支付宝付款。

OpenRouter

OpenRouter 是全球最大的模型聚合网关,接入 300+ 模型,包括 OpenAI、Anthropic、Google、Meta、Mistral、DeepSeek 等几乎所有主流提供商。

核心优势:

  • 有免费模型stepfun/step-3.5-flash:freegoogle/gemma-3-4b-it:free 等,零成本入门
  • 透明定价:在每个模型页面直接显示价格,按用量付费,无月费
  • 中国可访问:部分地区可直连,或通过硅基流动等国内代理访问

定价模式:

  • 免费模型:$0(有速率限制)
  • 付费模型:按各提供商原价 + 小幅加价(通常 5-15%)
  • 支付方式:国际信用卡、Crypto

Vercel AI Gateway

Vercel AI Gateway 是 Vercel 提供的统一 AI 网关,主要面向开发者。

特点:

  • 统一 SDK(ai npm 包)接入多家模型
  • 内置负载均衡、故障转移、缓存
  • 与 Vercel 部署平台深度集成
  • 更适合应用开发场景,而非直接用于 OpenClaw

3. 国内模型提供商

国内提供商的共同优势:直连无需科学上网支付宝/微信支付中文优化好

3.1 供应商列表

提供商旗舰模型输入价格 (¥/百万token)输出价格 (¥/百万token)免费额度上下文特色
DeepSeekDeepSeek V312新用户送额度128K性价比之王,推理能力强
DeepSeekDeepSeek R1416128K深度推理,数学/编程
通义千问Qwen3.5-plus26有免费额度128K阿里系,中文理解好
智谱GLM-555新用户送额度128K学术背景,工具调用强
月之暗面Kimi K2.588有限免费256K超长上下文
豆包Doubao-Seed-2.00.30.6Coding Plan 含128K字节系,极致低价,中文表达能力强
混元hunyuan-lite免费免费无限量32K腾讯免费模型
混元hunyuan-pro1550128K腾讯旗舰
MiniMaxMiniMax-M2.514欢迎积分200K+MoE 架构,多模态
阶跃星辰Step-3.5-flash免费(via OR)免费(via OR)OpenRouter 免费128K通过 OpenRouter 免费用
文心ERNIE-4.5-turbo412有免费额度128K百度系

价格说明:以上为 API 直连价格(2026 年 3 月),通过聚合网关使用时价格可能略有不同。

3.2 各提供商详解

DeepSeek(深度求索)— 性价比之王

DeepSeek 凭借开源策略和极致性价比,成为国内最受欢迎的 API 提供商之一。

模型矩阵:

  • DeepSeek V3:通用旗舰,128K 上下文,MoE 架构(671B 参数,37B 活跃),性能接近 GPT-4o,价格仅为其 1/30
  • DeepSeek R1:深度推理模型,擅长数学、编程、逻辑推理,思维链输出
  • DeepSeek Coder:代码专用模型

优势:

  • 国产模型中综合能力最强之一
  • 价格极低(V3 输入 ¥1/百万 token)
  • 支持支付宝充值
  • 开源模型可本地部署(通过 Ollama)
  • API 兼容 OpenAI 格式,接入简单

注意:

  • 高峰期可能排队(热门程度高)
  • R1 模型输出较慢(深度推理需要时间)

OpenClaw 配置:

export DEEPSEEK_API_KEY="sk-..."
# model: "deepseek:deepseek-chat" # V3
# model: "deepseek:deepseek-reasoner" # R1

链接: platform.deepseek.com

通义千问 Qwen(阿里云百炼)

通义千问 是阿里云旗下的大模型平台,通过百炼(DashScope)平台提供 API 服务。

模型矩阵:

  • Qwen3.5-plus:旗舰通用模型,128K 上下文
  • Qwen3.5-turbo:高性价比版本
  • Qwen-VL:视觉理解模型
  • Qwen-Audio:语音理解模型
  • Qwen-Coder:代码专用

优势:

  • 中文理解能力优秀(阿里电商+搜索数据训练)
  • 模型矩阵完整(文本/视觉/语音/代码)
  • 新用户有免费额度
  • 支持函数调用(Function Calling)
  • Coding Plan Lite ¥10/月(18,000 次请求)

OpenClaw 配置:

export DASHSCOPE_API_KEY="sk-..."
# model: "qwen:qwen-max"
# model: "qwen:qwen-plus"

链接: dashscope.console.aliyun.com | 百炼平台

智谱 GLM

智谱 由清华大学孵化,是国内最早的大模型公司之一。

模型矩阵:

  • GLM-5:最新旗舰,综合能力与 GPT-4o 对标
  • GLM-4-plus:均衡性价比
  • GLM-4-flash:低成本快速响应
  • CogView:图像生成
  • CogVideoX:视频生成

优势:

  • 学术背景深厚(清华 KEG 实验室)
  • 工具调用(Tool Use)能力突出
  • 新用户有免费额度

OpenClaw 配置:

export ZHIPUAI_API_KEY="..."
# model: "glm:glm-4-plus"

链接: open.bigmodel.cn

月之暗面 Moonshot / Kimi

月之暗面 以超长上下文闻名,Kimi K2.5 支持 256K token 上下文窗口。

模型矩阵:

  • Kimi K2.5:旗舰模型,256K 上下文
  • Moonshot-v1-128k:128K 上下文版本
  • Moonshot-v1-32k:32K 经济版

优势:

  • 超长上下文(256K)——适合处理长文档、大代码库
  • 搜索增强能力(集成 Yahoo Finance 等数据源)

注意:

  • 价格在国内提供商中偏高
  • 长上下文场景下 token 消耗大

OpenClaw 配置:

export MOONSHOT_API_KEY="sk-..."
# model: "moonshot:moonshot-v1-128k"

链接: platform.moonshot.cn | Kimi.com

豆包 Doubao(火山方舟)

火山方舟 是字节跳动旗下的模型服务平台,提供豆包系列模型。

模型矩阵:

  • Doubao-Seed-2.0:最新旗舰,MoE 架构
  • Doubao-pro:通用高性能
  • Doubao-lite:轻量快速

优势:

  • 价格极低:输入 ¥0.3/百万 token,输出 ¥0.6/百万 token(可能是主流模型中最低价)
  • Coding Plan:¥9.9/首月起,同时支持 ArkClaw + Claude Code + Cursor
  • 飞书深度集成

注意:

  • 模型能力在国内第一梯队但不是最顶尖
  • 部分功能需要通过 Coding Plan 订阅

OpenClaw 配置:

export ARK_API_KEY="..."
# 需要在火山方舟控制台创建推理接入点
# model: "doubao:doubao-seed-2.0"

链接: console.volcengine.com/ark | Coding Plan

混元 Hunyuan(腾讯)

腾讯混元 提供从免费到旗舰的完整模型矩阵。

模型矩阵:

  • hunyuan-lite免费无限量——目前唯一完全免费不限量的主流模型
  • hunyuan-standard:标准版
  • hunyuan-pro:旗舰版

优势:

  • hunyuan-lite 免费无限量——零成本 7×24 运行 OpenClaw
  • QQ/企微/微信生态协同
  • 支持函数调用

注意:

  • hunyuan-lite 能力有限(32K 上下文,适合简单任务)
  • 旗舰版价格在国内偏高

OpenClaw 配置:

export HUNYUAN_SECRET_ID="..."
export HUNYUAN_SECRET_KEY="..."
# model: "hunyuan:hunyuan-lite" # 免费
# model: "hunyuan:hunyuan-pro" # 旗舰

链接: cloud.tencent.com/product/tclm

MiniMax(稀宇科技)

MiniMax 以 MoE 架构和多模态能力著称。

模型矩阵:

  • MiniMax-M2.5:旗舰 MoE 模型(229B 参数,~10B 活跃),200K+ 上下文
  • MiniMax-Text:文本专用
  • MiniMax-VL:视觉理解

优势:

  • MoE 架构成本低(活跃参数少,推理便宜)
  • 多模态内置(图像/视频理解、文生图/视频)
  • 200K+ 长上下文

OpenClaw 配置:

export MINIMAX_API_KEY="..."
# model: "minimax:MiniMax-M2.5"

链接: platform.minimaxi.com | MaxClaw

阶跃星辰(StepFun)

阶跃星辰 以高性能推理模型见长。

模型矩阵:

  • Step-3.5:旗舰模型
  • Step-3.5-flash:轻量快速版——可通过 OpenRouter 免费使用

优势:

  • stepfun/step-3.5-flash:free 通过 OpenRouter 免费(本教程第二章入门方案)
  • 直连 API 价格也较低
  • 推理速度快

如果你通过 OpenRouter 使用 StepFun 的免费模型,则不需要单独注册 StepFun 账号。

链接: platform.stepfun.com

文心一言 ERNIE(百度千帆)

百度千帆 提供文心系列模型。

模型矩阵:

  • ERNIE-4.5-turbo:旗舰版
  • ERNIE-4.0:上一代旗舰
  • ERNIE-Speed/Lite:经济版

优势:

  • 百度搜索数据加持,中文知识库丰富
  • 千帆平台提供 7 个官方 OpenClaw 技能
  • 有免费体验额度

链接: console.bce.baidu.com/qianfan | 千帆文档


4. 国际模型提供商

国际提供商通常提供最前沿的模型能力,但需要科学上网需国际信用卡支付。如果你在国内且不方便直连,可以通过DMXAPI或 OpenRouter间接使用这些模型。

4.1 供应商列表

提供商旗舰模型输入价格 ($/百万token)输出价格 ($/百万token)免费额度上下文特色
OpenAIGPT-5~30~60128K综合最强,生态最完善
OpenAIGPT-4o~2.5~10128K高性价比多模态
OpenAIo3~15~60200K深度推理
AnthropicClaude Opus 4.5~15~75200K编程最强,超长输出
AnthropicClaude Sonnet 4.5~3~15200K性价比编程
GoogleGemini 2.5 Pro~1.25~10✅ 免费层1M超长上下文之王
GoogleGemini 2.5 Flash~0.15~0.6✅ 免费层1M极致性价比
xAIGrok 4~5~15✅ 免费积分128K实时信息(X/Twitter)
MistralMistral Large~2~6✅ 免费层128K欧洲开源领军
MistralCodestral~0.3~0.9✅ 免费层256K代码专用,FIM 支持
PerplexitySonar Pro~3~15128K搜索增强,带引用

价格说明:以上为 2026 年 3 月参考价格,实际价格请以各提供商官网为准。OpenAI/Anthropic 价格波动较频繁。

4.2 各提供商详解

OpenAI — 行业标杆

OpenAI 是大模型行业的开创者,GPT 系列模型在综合能力上长期领先。

模型矩阵:

  • GPT-5:最新旗舰,综合能力最强
  • GPT-4o:多模态旗舰,支持文本/图像/音频输入
  • GPT-4o-mini:轻量高性价比
  • o3 / o3-mini:深度推理模型(类似 DeepSeek R1,但更强)
  • o1:上一代推理模型

优势:

  • 综合能力长期领先
  • 生态最完善(函数调用、JSON 模式、结构化输出)
  • OpenClaw 原生支持最好(大量技能默认适配 OpenAI 格式)
  • 多模态能力强(图像理解、语音)

注意:

  • 需科学上网
  • 需国际信用卡(Visa/Mastercard)
  • 价格在主流提供商中偏高
  • 中国手机号无法注册(需海外手机号或虚拟号)

OpenClaw 配置:

export OPENAI_API_KEY="sk-..."
# model: "openai:gpt-4o"
# model: "openai:o3"

链接: platform.openai.com

Anthropic(Claude)— 编程之王

Anthropic 的 Claude 系列在编程、长文本处理和安全性方面表现突出。

模型矩阵:

  • Claude Opus 4.5:旗舰,编程能力业界最强
  • Claude Sonnet 4.5:性价比编程选手
  • Claude Haiku 4.5:轻量快速

优势:

  • 编程能力业界标杆(SWE-bench 排名持续领先)
  • 200K 上下文窗口
  • 安全性设计突出(Constitutional AI)
  • 超长输出能力(一次生成数千行代码)

注意:

  • 需科学上网
  • 需国际信用卡
  • API 价格较高(Opus 4.5 输出 $75/百万 token)
  • 速率限制相对严格

OpenClaw 配置:

export ANTHROPIC_API_KEY="sk-ant-..."
# model: "anthropic:claude-sonnet-4-5-20250514"

链接: console.anthropic.com

Google(Gemini)— 超长上下文

Google AI Studio 提供 Gemini 系列模型,以超长上下文窗口著称。

模型矩阵:

  • Gemini 2.5 Pro:旗舰,1M token 上下文(百万级!)
  • Gemini 2.5 Flash:轻量高速,也支持 1M 上下文
  • Gemini 2.5 Flash-8B:超轻量

优势:

  • 1M token 上下文——可以一次性读入整本书或整个代码库
  • 有免费层(AI Studio 免费使用,有速率限制)
  • 多模态能力强(原生支持图像、视频、音频输入)
  • Gemini 2.5 Flash 价格极低($0.15/百万 token 输入)

注意:

  • 需科学上网(AI Studio)
  • 中文支持不如国内模型
  • 免费层有速率限制

OpenClaw 配置:

export GOOGLE_API_KEY="..."
# model: "google:gemini-2.5-pro"
# model: "google:gemini-2.5-flash"

链接: aistudio.google.com | Vertex AI

xAI(Grok)

xAI 由 Elon Musk 创立,Grok 模型与 X/Twitter 平台深度集成。

模型矩阵:

  • Grok 4:最新旗舰
  • Grok 3:上一代旗舰

优势:

  • 实时信息访问(整合 X/Twitter 数据流)
  • 新用户有免费 API 积分
  • 幽默风格的对话体验

注意:

  • 需科学上网
  • 需国际信用卡
  • 模型生态和工具调用支持不如 OpenAI

链接: console.x.ai

Mistral — 欧洲开源领军

Mistral 是欧洲最重要的 AI 公司,以开源模型和代码能力著称。

模型矩阵:

  • Mistral Large:旗舰通用模型,128K 上下文
  • Codestral:专为代码设计,256K 上下文,支持 Fill-in-the-Middle(FIM)
  • Mistral Small:轻量经济版
  • Pixtral:视觉理解模型

优势:

  • 有免费层(La Plateforme 免费使用部分模型)
  • Codestral 代码能力强:专为编程优化,支持 80+ 语言
  • 开源模型可本地部署
  • 欧洲数据合规(GDPR)

OpenClaw 配置:

export MISTRAL_API_KEY="..."
# model: "mistral:mistral-large-latest"
# model: "mistral:codestral-latest"

链接: mistral.ai | La Plateforme

Perplexity — 搜索增强

Perplexity 提供搜索增强的模型 API,回答自动附带网页引用来源。

模型矩阵:

  • Sonar Pro:旗舰搜索增强模型
  • Sonar:标准版

优势:

  • 内置实时网页搜索——不需要额外配置搜索技能
  • 回答自动附带引用来源(URL)
  • 适合需要实时信息的场景(新闻、研究、事实核查)

注意:

  • 价格较高(搜索成本包含在 token 价格中)
  • 不适合纯创作/编程场景
  • 需科学上网

链接: docs.perplexity.ai


5. 本地部署

本地部署需要有足够的硬件资源,且模型能力通常弱于云端旗舰。

OllamaLM Studio
类型CLI 工具GUI 应用
支持平台macOS / Linux / WindowsmacOS / Linux / Windows
界面命令行图形界面(对新手友好)
模型格式GGUF (llama.cpp)GGUF (llama.cpp)
模型库ollama.com/library内置模型搜索下载
API 兼容✅ OpenAI 格式(localhost:11434)✅ OpenAI 格式(localhost:1234)
资源占用低(仅推理)中(含 GUI)
适合谁技术用户 / 已有终端经验新手 / 喜欢 GUI
Ollama 快速上手
# 安装
curl -fsSL https://ollama.com/install.sh | sh # Linux/macOS
# Windows: 下载 ollama.com 安装包

# 下载并运行模型
ollama pull deepseek-r1:8b # 8B 参数版,需 ~6GB 显存/内存
ollama pull qwen2.5:14b # 14B 参数版,需 ~10GB
ollama pull llama3.3:8b # Meta Llama 3.3

# 启动 API 服务(默认 http://localhost:11434)
ollama serve

OpenClaw 配置:

# openclaw.json 中配置本地模型
# API base: http://localhost:11434/v1
# model: "ollama:deepseek-r1:8b"

硬件推荐:

模型大小最低内存推荐 GPU推荐场景
1-3B4GB无需简单问答
7-8B8GB6GB VRAM日常对话、简单编程
14B16GB12GB VRAM较复杂任务
32B+32GB+24GB+ VRAM接近云端质量

Apple Silicon 用户:M 系列芯片的统一内存对本地模型特别友好。16GB M4 可以流畅运行 8B 模型,24GB+ 可以运行 14B 模型。

LM Studio 快速上手
  1. lmstudio.ai 下载安装
  2. 打开应用,搜索模型(如 "deepseek")
  3. 一键下载,点击 "Start" 即可启动
  4. 在设置中开启 "Local Server"(默认 http://localhost:1234

优势: 纯 GUI 操作,适合不熟悉命令行的用户。内置模型性能测试,可以直观看到推理速度。

Hugging Face 开源模型

Hugging Face 是全球最大的开源模型托管平台,几乎所有开源大模型都在此发布。

使用方式:

  • 直接下载:下载 GGUF 格式模型文件,用 Ollama 或 LM Studio 加载
  • Inference API:Hugging Face 提供云端推理 API(有免费层)
  • Inference Endpoints:付费部署专属推理实例

推荐开源模型:

模型参数特点HF 链接
DeepSeek R11.5B-671B深度推理,多种尺寸deepseek-ai/DeepSeek-R1
Qwen 2.50.5B-72B均衡通用Qwen/Qwen2.5
Llama 3.38B-70BMeta 开源旗舰meta-llama/Llama-3.3
Mistral7B-24B欧洲开源mistralai/
Gemma 32B-27BGoogle 开源google/gemma-3

开源模型通常需要量化(如 Q4_K_M)才能在消费级硬件上运行。Ollama 默认提供量化版本。

最后编辑时间:2026/03/16 09:16