Windows 本地部署 OpenClaw 实战:WSL2 + Ollama 打造零成本私有 AI 助理
随着本地大模型(LLM)技术的成熟,利用个人电脑的闲置算力驱动 AI 助理已成为可能。今天教大家如何在 Windows 环境下,通过 WSL2 虚拟机部署 OpenClaw,并对接本地 Ollama API,实现云端级别的智能体验,且算力完全免费。

为什么选择 Windows 本地部署?
1. 算力免费:利用显卡(NVIDIA/AMD)或 CPU 运行 Ollama,无需支付 API 费用。
2. 隐私安全:所有对话数据留在本地,不经过云端。
3. 极速响应:无需经过跨境网络,本地内网秒回。
第一步:构建 WSL2 Linux 环境
OpenClaw 在 Linux 下运行最为稳定,我们推荐使用 Windows 自带的 WSL2(Windows Subsystem for Linux)安装 Ubuntu 子系统。
在 PowerShell(管理员模式)中输入以下命令快速安装:
wsl --install -d Ubuntu
安装完成后,设置好用户名和密码,即可进入 Linux 终端环境。
第二步:一键部署 OpenClaw
进入 Ubuntu 终端后,使用科技lion提供的一键脚本。该脚本针对国内网络环境进行了自动优化(包括镜像加速、依赖预装等),一行命令即可搞定:
bash <(curl -sL kejilion.sh) app OpenClaw
脚本会自动完成 Node.js 环境检测、OpenClaw 程序下载以及初始化工作。部署完成后,你将看到功能丰富的管理菜单。
第三步:对接本地 Ollama API
确保你的 Windows 主机已安装并运行 Ollama。在 OpenClaw 中对接本地算力的步骤如下:
- 在脚本菜单中选择“API管理”。
- 添加新 API 供应商,地址填写:
http://host.docker.internal:11434/v1(WSL 访问宿主机的通用地址)或你的局域网 IP。 - 模型名称填写你在 Ollama 中下载的模型(如
deepseek-r1,llama3)。
这样,OpenClaw 就会优先调用你本地显卡跑出来的算力,实现“算力自由”。
第四步:对接消息渠道
OpenClaw 的强大之处在于它能化身为各种机器人,通过脚本可以快速配置:
1. QQBOT:通过内置插件,让 OpenClaw 进驻 QQ 群或私聊,支持图片和长文本处理。
2. 飞书 (Feishu):适合办公场景,配置简单,响应速度极快。
3. TUI 操作:如果你喜欢极客风格,直接在终端输入 openclaw 进入 TUI 模式,像聊天窗口一样直接与 AI 交流。
日常管理与维护
通过科技lion脚本,你可以随时进行以下操作:
- 版本更新:一键同步 OpenClaw 最新功能。
- 记忆管理:配置 QMD 记忆索引,让你的本地 AI 具备长久记忆,越用越聪明。
- 备份恢复:一键备份你的配置和 API 密钥,迁移机器无忧。
总结
通过 WSL + Ollama + OpenClaw 的组合,Windows 用户可以低门槛地拥有一套完全属于自己的 AI 自动化系统。不仅能白嫖本地 GPU 算力,还能通过飞书或 QQ 随时随地调用,真正让 AI 融入日常生活和工作流程中。
更多高级玩法和插件配置,请参考科技lion视频教程或加入社群讨论。
版权声明:
作者:KEJILION
链接:https://blog.kejilion.pro/windows-wsl-openclaw-ollama/
来源:科技lion官方博客【国内版】
文章版权归作者所有,未经允许请勿转载。



共有 0 条评论