OpenClaw 国产化部署全指南:飞书、MiniMax、DeepSeek 与国产网关(白山云)全流程

OpenClaw

摘要:本文面向在国内环境落地 OpenClaw 的工程同学,覆盖从安装到「飞书渠道」接入,以及常用国产模型与网关(MiniMax、DeepSeek、国产 OpenAI 兼容网关如白山云)的全流程配置与联调验收。随文附可复制配置片段与排障要点,并给出「飞书对接指南」的标准化文档链接,便于团队内推广复用。

 

目录

  • 一、准备与安装
  • 二、对接飞书(Feishu/Lark)
  • 三、对接 MiniMax(M2.5/M2.5 highspeed)
  • 四、对接 DeepSeek(直连或通过网关)
  • 五、通过国产 OpenAI 兼容网关(如白山云)统一接入
  • 六、设置默认模型与验证联通
  • 七、常见问题与排障要点
  • 附:飞书对接标准指南(项目内沉淀)

 

一、准备与安装

  1. 服务器:国内云或自有机房均可(建议开启 IPv4、放行必要端口)。
  2. 安装 OpenClaw(已安装可略过):
    npm i -g openclaw
    openclaw --version
    openclaw status
    
  3. 如需图形化浏览器联调,可准备 Docker + Nginx(可选)。

 

二、对接飞书(Feishu/Lark)

飞书官方插件

飞书渠道生产可用,支持机器人私聊与群聊,建议优先走安装向导;也支持手工在 openclaw.json 配置。

方式 A:安装向导(推荐)

openclaw onboard
# 或:openclaw channels add
# 按提示选择 Feishu,填入 App ID / App Secret
openclaw gateway restart
openclaw gateway status

方式 B:手工配置(配置文件:~/.openclaw/openclaw.json)

{
  "channels": {
    "feishu": {
      "enabled": true,
      "accounts": {
        "main": {
          "appId": "cli_xxx",
          "appSecret": "xxx",
          "botName": "我的AI助手"
        }
      }
    }
  }
}

详细步骤(创建应用、开通权限、事件订阅、注意事项)请参考:

 

三、对接 MiniMax(M2.5/M2.5 highspeed)

前往 MiniMax 开发者平台申请/管理 API

MiniMax 推荐两种接入路径:OAuth 编码计划(免 key,推荐)或 API Key(Anthropic/OpenAI 兼容)。

路径 A:MiniMax OAuth(Coding Plan)

# 启用 OAuth 插件并重启
openclaw plugins enable minimax-portal-auth
openclaw gateway restart

# 交互式登录并选择区域(Global/CN)
openclaw onboard --auth-choice minimax-portal

路径 B:MiniMax API Key(Anthropic 兼容)

{
  "env": { "MINIMAX_API_KEY": "sk-..." },
  "models": {
    "mode": "merge",
    "providers": {
      "minimax": {
        "baseUrl": "https://api.minimax.io/anthropic",
        "api": "anthropic-messages",
        "apiKey": "${MINIMAX_API_KEY}",
        "models": [
          { "id": "MiniMax-M2.5", "name": "MiniMax M2.5", "reasoning": true, "contextWindow": 200000, "maxTokens": 8192 },
          { "id": "MiniMax-M2.5-highspeed", "name": "MiniMax M2.5 Highspeed", "reasoning": true, "contextWindow": 200000, "maxTokens": 8192 }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": { "primary": "minimax/MiniMax-M2.5" }
    }
  }
}

说明:也可将 MiniMax 作为主模型的 fallback;更多配置详见 providers/minimax 文档。

 

四、对接 DeepSeek(直连或通过网关)

前往 DeepSeek 中文 API 文档查看接入与示例

DeepSeek 常见两种接入:

  • 直连官方 OpenAI 兼容端点(常见 baseUrl:https://api.deepseek.com/v1,以官方控制台为准)。
  • 通过国产网关/聚合商(OpenAI 兼容),统一走企业网关鉴权与审计。

直连示例(OpenAI 兼容)

{
  "env": { "DEEPSEEK_API_KEY": "sk-..." },
  "models": {
    "mode": "merge",
    "providers": {
      "deepseek": {
        "baseUrl": "https://api.deepseek.com/v1",
        "api": "openai-responses",
        "apiKey": "${DEEPSEEK_API_KEY}",
        "models": [
          { "id": "deepseek-chat", "name": "DeepSeek Chat" },
          { "id": "deepseek-reasoner", "name": "DeepSeek Reasoner" }
        ]
      }
    }
  }
}

备选:通过 Venice 私有推理接入 DeepSeek(隐私优先、无需日志)。若已采购 Venice,可在其私有模型列表中选用 DeepSeek(示例 ID:venice/deepseek-v3.2),具体以 Venice 模型目录为准。

 

五、通过国产 OpenAI 兼容网关(如白山云)统一接入

通过白山云网关开通与统一接入(含活动)

若企业已上「白山云等国产 AI 网关」(OpenAI 兼容 /v1),建议统一走网关,集中鉴权、配额与审计;将不同厂商模型映射为统一的 OpenAI 接口。

通用配置范式(以厂商控制台下发的 baseUrl/apiKey 为准)

{
  "env": { "BAISHAN_API_KEY": "bs-..." },
  "models": {
    "mode": "merge",
    "providers": {
      "baishan": {
        "baseUrl": "https://<网关控制台给出的域名>/v1",
        "api": "openai-responses",
        "apiKey": "${BAISHAN_API_KEY}",
        "models": [
          { "id": "gpt-4.1", "name": "Gateway GPT-4.1" },
          { "id": "minimax-m2.5", "name": "Gateway MiniMax M2.5" },
          { "id": "deepseek-chat", "name": "Gateway DeepSeek Chat" }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": { "primary": "baishan/deepseek-chat" }
    }
  }
}

说明:

  • 将 OpenClaw 当作「统一调用层」,把不同国产模型映射到 providers.<gateway>.models;调用只需切换 agents.defaults.model.primary
  • 如需细分成本与配额,可在 models 声明中加入自定义 cost 字段(可选)。

 

六、设置默认模型与验证联通

设置默认模型(二选一)

# 交互式
openclaw models set minimax/MiniMax-M2.5

# 或直接在 openclaw.json 写入
"agents": { "defaults": { "model": { "primary": "minimax/MiniMax-M2.5" } } }

联通性自检

openclaw agent --message "你好,OpenClaw 已接通吗?"
openclaw logs --follow

飞书端到端验收

  1. 在飞书中私聊你的机器人,发送一条「ping」。
  2. OpenClaw 收到消息后应返回正常文本(若开启内置 TTS,将自动带语音气泡)。
  3. 若无响应,依次排查:OpenClaw 网关状态、飞书应用权限与事件订阅、网络出站访问(到模型提供商或网关)。

 

七、常见问题与排障要点

  • 飞书事件订阅保存失败:确保先 openclaw channels add 添加了 Feishu,且 openclaw gateway status 为运行中,再回飞书控制台配置长连接订阅。
  • 模型报 Unknown model:通常是 provider 未配置或 id 不匹配;用 openclaw models list 查看加载到的模型清单。
  • 通过网关 401/403:检查企业网关的鉴权白名单、流量策略、计费状态;必要时抓包或对比 curl 直连厂商与经网关两侧的响应差异。
  • Telegram 语音气泡重复:若在配置里将 messages.tts.auto 设为 always,则回复时只发文字,不要再手动调用 tts 工具。

 

附:飞书对接标准指南(项目内沉淀)

 

附录:一键小脚本

将 tools.profile 置为 full(避免工具受限)

#!/usr/bin/env bash
CFG="$HOME/.openclaw/openclaw.json"
mkdir -p "$(dirname "$CFG")"
[ ! -f "$CFG" ] && printf '{ "tools": { "profile": "full" } }\n' > "$CFG" && exit 0
grep -q '"profile"[[:space:]]*:[[:space:]]*"full"' "$CFG" && { echo "ok"; exit 0; }
cp -a "$CFG" "$CFG.bak.$(date +%Y%m%d-%H%M%S)"
sed -i -E 's/("profile"[[:space:]]*:[[:space:]]*")[^"]*(")/\1full\2/g' "$CFG"
grep -q '"profile"[[:space:]]*:' "$CFG" || sed -i -E '/"tools"[[:space:]]*:\s*\{/ s/\{/{ "profile": "full",/;' "$CFG"

敏感字段脱敏(就地替换 appId/appSecret)

sed -i.bak -E 's/("appId"[[:space:]]*:[[:space:]]*")[^"]+(" )/\1REDACTED_APP_ID\2/g; s/("appSecret"[[:space:]]*:[[:space:]]*")[^"]+(" )/\1REDACTED_APP_SECRET\2/g' ~/.openclaw/openclaw.json

 

参考与官方链接

结语

通过上述流程,OpenClaw 可在国内环境下稳定对接「飞书」与多家国产模型/网关(MiniMax、DeepSeek、OpenAI 兼容网关如白山云),实现统一的模型编排与消息渠道收发。建议将本文的配置片段与排障要点沉淀到你们的内部运维手册,并结合企业网关做统一鉴权与审计。

 

版权声明:
作者:KEJILION
链接:https://blog.kejilion.pro/openclaw-feishu/
来源:科技lion官方博客【国内版】
文章版权归作者所有,未经允许请勿转载。

THE END
分享
二维码
< <上一篇
下一篇>>