Windows 本地部署 OpenClaw 实战:WSL2 + Ollama 打造零成本私有 AI 助理

随着本地大模型(LLM)技术的成熟,利用个人电脑的闲置算力驱动 AI 助理已成为可能。今天教大家如何在 Windows 环境下,通过 WSL2 虚拟机部署 OpenClaw,并对接本地 Ollama API,实现云端级别的智能体验,且算力完全免费。

Windows WSL OpenClaw Ollama Architecture

 

 

为什么选择 Windows 本地部署?

1. 算力免费:利用显卡(NVIDIA/AMD)或 CPU 运行 Ollama,无需支付 API 费用。

2. 隐私安全:所有对话数据留在本地,不经过云端。

3. 极速响应:无需经过跨境网络,本地内网秒回。

 

第一步:构建 WSL2 Linux 环境

OpenClaw 在 Linux 下运行最为稳定,我们推荐使用 Windows 自带的 WSL2(Windows Subsystem for Linux)安装 Ubuntu 子系统。

在 PowerShell(管理员模式)中输入以下命令快速安装:

wsl --install -d Ubuntu

安装完成后,设置好用户名和密码,即可进入 Linux 终端环境。

 

第二步:一键部署 OpenClaw

进入 Ubuntu 终端后,使用科技lion提供的一键脚本。该脚本针对国内网络环境进行了自动优化(包括镜像加速、依赖预装等),一行命令即可搞定:

bash <(curl -sL kejilion.sh) app OpenClaw

脚本会自动完成 Node.js 环境检测、OpenClaw 程序下载以及初始化工作。部署完成后,你将看到功能丰富的管理菜单。

 

第三步:对接本地 Ollama API

确保你的 Windows 主机已安装并运行 Ollama。在 OpenClaw 中对接本地算力的步骤如下:

  1. 在脚本菜单中选择“API管理”。
  2. 添加新 API 供应商,地址填写:http://host.docker.internal:11434/v1(WSL 访问宿主机的通用地址)或你的局域网 IP。
  3. 模型名称填写你在 Ollama 中下载的模型(如 deepseek-r1, llama3)。

这样,OpenClaw 就会优先调用你本地显卡跑出来的算力,实现“算力自由”。

 

第四步:对接消息渠道

OpenClaw 的强大之处在于它能化身为各种机器人,通过脚本可以快速配置:

1. QQBOT:通过内置插件,让 OpenClaw 进驻 QQ 群或私聊,支持图片和长文本处理。

2. 飞书 (Feishu):适合办公场景,配置简单,响应速度极快。

3. TUI 操作:如果你喜欢极客风格,直接在终端输入 openclaw 进入 TUI 模式,像聊天窗口一样直接与 AI 交流。

 

日常管理与维护

通过科技lion脚本,你可以随时进行以下操作:

  • 版本更新:一键同步 OpenClaw 最新功能。
  • 记忆管理:配置 QMD 记忆索引,让你的本地 AI 具备长久记忆,越用越聪明。
  • 备份恢复:一键备份你的配置和 API 密钥,迁移机器无忧。

 

总结

通过 WSL + Ollama + OpenClaw 的组合,Windows 用户可以低门槛地拥有一套完全属于自己的 AI 自动化系统。不仅能白嫖本地 GPU 算力,还能通过飞书或 QQ 随时随地调用,真正让 AI 融入日常生活和工作流程中。

 

更多高级玩法和插件配置,请参考科技lion视频教程或加入社群讨论。

版权声明:
作者:KEJILION
链接:https://blog.kejilion.pro/windows-wsl-openclaw-ollama/
来源:科技lion官方博客【国内版】
文章版权归作者所有,未经允许请勿转载。

THE END
分享
二维码
< <上一篇
下一篇>>