NVIDIA Build 免费开放 Kimi-K2.5:用 OpenAI 兼容接口接入 OpenClaw

一条重要更新:NVIDIA Build 已开放 kimi-k2.5,并且可以免费使用

这两天 NVIDIA Build 上线了 moonshotai/kimi-k2.5 模型,并提供 OpenAI 兼容接口。这意味着你可以用非常低的接入成本,把它接到 OpenClaw(以及各种支持 OpenAI 接口的 Agent / 工具)里进行对话与自动化工作流调用。

 

第一步:申请 NVIDIA Build API Key

先到 NVIDIA Build 的 API Keys 页面创建 Key:

https://build.nvidia.com/settings/api-keys

NVIDIA Build API Keys 页面:创建并复制 API Key

图1:在 NVIDIA Build 生成 API Key。注意不要把 Key 明文发到群里或写进仓库。

 

第二步:确认接口参数(OpenAI 兼容)

你需要记住三个关键参数:

  • API Key:你刚创建的 key
  • Base URL(OpenAI 兼容)https://integrate.api.nvidia.com/v1
  • Chat Completions Endpoint/chat/completions
  • Model IDmoonshotai/kimi-k2.5

有些工具会让你直接填写“完整 endpoint”,也就是:

https://integrate.api.nvidia.com/v1/chat/completions

但更常见、也更推荐的写法是只填 base URL(到 /v1),由客户端自动拼接 /chat/completions

NVIDIA OpenAI 兼容接口 base-url 与模型 ID:moonshotai/kimi-k2.5

图2:OpenAI 兼容接入参数示例:base-url 与 model-id。

 

第三步:接入 OpenClaw(两种写法都给你)

OpenClaw 侧只要把它当作一个“OpenAI 兼容提供方(provider)”配置进去即可。下面给两种写法,优先推荐 A;如果你遇到客户端拼接路径不兼容,再用 B 作为兜底。

 

A. 推荐写法:baseUrl 写到 /v1(更通用)

示例(请把 YOUR_NVIDIA_KEY 换成你自己的 key):

{
  "providers": {
    "nvidia-kimi": {
      "api": "openai-chat-completions",
      "baseUrl": "https://integrate.api.nvidia.com/v1",
      "apiKey": "YOUR_NVIDIA_KEY",
      "models": ["moonshotai/kimi-k2.5"]
    }
  },
  "defaults": {
    "provider": "nvidia-kimi",
    "model": "moonshotai/kimi-k2.5"
  }
}

解释:

  • api 使用 OpenAI Chat Completions 兼容模式(对应 /chat/completions)。
  • baseUrl 建议写到 /v1,由客户端拼接后续路径。
  • modelmoonshotai/kimi-k2.5

 

B. 兜底写法:baseUrl 直接写到 /v1/chat/completions(少数工具需要)

如果你发现某些环境下客户端没有自动拼接 /chat/completions,可以尝试:

{
  "providers": {
    "nvidia-kimi": {
      "api": "openai-chat-completions",
      "baseUrl": "https://integrate.api.nvidia.com/v1/chat/completions",
      "apiKey": "YOUR_NVIDIA_KEY",
      "models": ["moonshotai/kimi-k2.5"]
    }
  }
}

注意:不同工具对 baseUrl 的语义略有差异。如果 B 仍不工作,优先回到 A,并检查工具是否要求单独填写 endpoint。

 

在 OpenClaw 中以 OpenAI 兼容方式配置 NVIDIA kimi-k2.5 的示例

图3:在 OpenClaw 中配置 provider(OpenAI 兼容)示例。建议遮挡 API Key,只展示 baseUrl 与 model-id。

 

第四步:如何验证是否接入成功

最简单的验证方式:

  1. 改完配置后,按提示 重启 gateway 使配置生效(如果你刚刚用 openclaw config set 修改过配置,也同样建议重启)。
  2. 在你的聊天入口里发一句简单的测试对话(例如“用一句话解释 TCP 三次握手”)。
  3. 观察 OpenClaw 的状态输出里 provider/model 是否显示为你设置的 nvidia-kimi / moonshotai/kimi-k2.5(不同版本显示字段可能略有差异)。

如果你使用的是命令行,也可以先看一下 OpenClaw 自身状态是否正常:

openclaw status
openclaw gateway status

 

注意事项与坑位提醒

  • 免费不等于无限额度:免费政策、速率、并发和每日额度可能变化,具体以 NVIDIA Build 实际策略为准。
  • 不要把 API Key 写进仓库:建议放环境变量或本机配置文件,并避免在截图/日志中泄露。
  • baseUrl 兼容差异:优先用 https://integrate.api.nvidia.com/v1;只有在客户端不拼接路径时才用完整 endpoint 写法。
  • 网络与代理:国内环境注意代理/网络策略对 integrate.api.nvidia.com 的可达性,遇到超时优先排查 DNS 与出站规则。

 

结语

对已经在用 OpenClaw 或者各种 Agent 框架的人来说,NVIDIA Build 提供的 OpenAI 兼容接口意味着接入成本非常低:拿到 key、填好 baseUrl 和 model-id,就可以快速把 kimi-k2.5 用起来。后续如果你希望把它做成一键迁移/一键切模型的体验,也很适合进一步做成脚本化模板。

 

如果你已经接入成功,也欢迎反馈 baseUrl 兼容情况(A 还是 B)。我后续可以整理成更稳的 OpenClaw 配置模板与排障清单。

版权声明:
作者:KEJILION
链接:https://blog.kejilion.pro/nvidia-build-kimi-k25-openclaw/
来源:科技lion官方博客【国内版】
文章版权归作者所有,未经允许请勿转载。

THE END
分享
二维码
< <上一篇
下一篇>>