Technology Encyclopedia Home >OpenClaw接入自定义大模型教程

OpenClaw接入自定义大模型教程

最近养“龙虾“热,想必大家已经知道并且玩上OpenClaw(Clawdbot)了。

首次使用提示: 如果你还没有部署自己的 OpenClaw,建议先从 Tencent Cloud OpenClaw 开始,一键即可在几秒内完成部署
完成实例启动后,再回到这篇教程,继续探索更多进阶玩法。

现在Lighthouse已经适配了国内的im软件(QQ、企业微信、飞书、钉钉),可以直接使用面板来完成配置。同样,面板也支持了许多主流大模型提供商,那么如果我们有其他的第三方提供商(例如七牛、硅基流动等)需要配置,这篇文章教会你如何接入这些第三方提供商。

重要

在选择模型提供商时,请确定你的轻量应用服务器地域在模型提供商支持的地域中

接入自定义AI提供商

只要在轻量应用服务器控制台,应用管理中将下方的自定义模型相关字段填写进去后点击保存即可完成自定义模型的配置:

图片

MiniMax

以minimax,使用"Anthropic"协议,使用MiniMax-M2.5模型为例:

国内版 - 获取APIKey


{
  "provider": "minimax",
  "base_url": "https://api.minimaxi.com/anthropic",
  "api": "anthropic-messages",
  "api_key": "your-api-key-here",
  "model": { "id": "MiniMax-M2.5", "name": "MiniMax M2.5" }
}

国际版 - 获取APIKey


{
  "provider": "minimax",
  "base_url": "https://api.minimax.io/anthropic",
  "api": "anthropic-messages",
  "api_key": "your-api-key-here",
  "model": { "id": "MiniMax-M2.5", "name": "MiniMax M2.5" }
}

硅基流动

以硅基流动,使用"OpenAI"协议,使用DeepSeekv3.2模型为例:


{
  "provider": "siliconflow",
  "base_url": "https://api.siliconflow.cn/v1",
  "api": "openai-completions",
  "api_key": "your-api-key-here",
  "model": {
    "id": "deepseek-ai/DeepSeek-V3.2",
    "name": "DeepSeek-V3.2"
  }
}

Kimi Code

⚠️:在非官方(Kimi CLI)中使用Kimi Code会员权益有可能被Kimi视为滥用和违规,导致会员权益停用或账号封禁。 详见 Kimi Code 使用范

使用Kimi Code,以Kimi-k2.5 模型为例:


{
  "provider": "kimicode",
  "base_url": "https://api.kimi.com/coding",
  "api": "anthropic-messages",
  "api_key": "your-api-key-here",
  "model": {
    "id": "kimi-k2.5",
    "name": "Kimi K2.5"
  }
}

Google Gemini

使用 Google Gemini API,以最新的 Gemini 3 Flash 模型为例:


{
  "provider": "google",
  "base_url": "https://generativelanguage.googleapis.com/v1beta/openai",
  "api": "openai-completions",
  "api_key": "your-api-key-here",
  "model": {
    "id": "gemini-3-flash-preview",
    "name": "Gemini 3 Flash"
  }
}

OpenAI (GPT)

官方文档:https://developers.openai.com/api/docs

使用 OpenAI 官方 API,以最新的 GPT-5.2 模型为例:


{
  "provider": "openai",
  "base_url": "https://api.openai.com/v1",
  "api": "openai-completions",
  "api_key": "your-api-key-here",
  "model": {
    "id": "gpt-5.2",
    "name": "GPT-5.2"
  }
}

Anthropic Claude

官方文档:https://platform.claude.com/docs/zh-CN/home

使用 Anthropic Claude API,以最新的 Claude Opus 4.6 模型为例:


{
  "provider": "anthropic",
  "base_url": "https://api.anthropic.com",
  "api": "anthropic-messages",
  "api_key": "your-api-key-here",
  "model": {
    "id": "claude-opus-4-6",
    "name": "Claude Opus 4.6"
  }
}

xAI Grok

使用 xAI Grok API(兼容 OpenAI 协议),以最新的 Grok 4.1 模型为例:


{
  "provider": "xai",
  "base_url": "https://api.x.ai/v1",
  "api": "openai-completions",
  "api_key": "your-api-key-here",
  "model": {
    "id": "grok-4.1",
    "name": "Grok 4.1"
  }
}

OpenRouter

使用 OpenRouter API(兼容 OpenAI 协议),以NVIDIA: Nemotron 3 Nano 30B A3B 模型(限时免费)为例:


{
  "provider": "openrouter",
  "base_url": "https://openrouter.ai/api/v1",
  "api": "openai-completions",
  "api_key": "your-api-key-here",
  "model": {
    "id": "nvidia/nemotron-3-nano-30b-a3b:free",
    "name": "NVIDIA: Nemotron 3 Nano 30B A3B"
  }
}


通用配置模板

如果上述没有你想要的模型,可以使用以下通用模板接入任何兼容OpenAI/Anthropic协议的模型:


{
  "provider": "provider_name",
  "base_url": "baseurl",
  "api": "API协议",
  "api_key": "your-api-key-here",
  "model": {
    "id": "model_id",
    "name": "model_name"
  }
}

参数说明

[表格]

常见问题

报错(错误码相关)

99%的错误码都可以通过长按翻译了解原因

图片

常见错误码

错误码因提供商不同可能略有出入,仅供参考。

[表格]

模型回复慢(响应慢)

若您选择的轻量应用服务器为境外地域且使用境内通道/模型提供商可能会因跨境网络原因导致延迟较高。

若您选择深度思考模型可能因上下文过多导致模型思考时间过长,推荐您选择非思考模型/快思考模型进行替代。

Token消耗过快

OpenClaw 在调用模型时会携带较多上下文信息,以保证任务连贯性与准确性,因此 Token 消耗可能较高。建议在使用时关注 Token 用量与计费情况


🚀 开发者社区与支持

1️⃣ OpenClaw 开发者交流社区

Discord 解锁更多进阶玩法

点击一键加入社群
注:加入后可获取最新插件模板与部署方案

2️⃣ 专属服务支持

加入 Whatsapp / 企业微信享受专属技术支持

渠道 扫描/点击进入
Whatsapp 频道
企业微信

更多详情请访问官方落地页: Tencent Cloud OpenClaw