OpenClaw 完整入门指南:从安装到跑通第一条消息
这篇入门页聚焦 OpenClaw 的第一轮 onboarding:如何完成安装、配置模型、接入聊天平台,并验证第一条消息确实能跑通。
需要继续找相关内容?
如果你想继续查工具名、术语、对比页或相关问题,可以直接搜全站,不用回到博客列表页重找。
核心结论
OpenClaw 适合想把 AI 助手部署到自己的设备或服务器上,并接入 Telegram、Discord、飞书等聊天平台的用户。
适合谁看
适合第一次接触 OpenClaw、想快速完成安装和首轮 onboarding,或者正在比较自托管 AI 助手方案的开发者。
关键判断
更稳的入门顺序是:先确认 Node.js 和网络环境,再完成模型配置,再接聊天平台,最后再做个性化和生产化调整。
下一步建议
如果你已经装好了但开始报错,下一步直接看 OpenClaw 常见错误与排障页。
你将学到
- + 什么是 OpenClaw,它和直接用 ChatGPT、Claude 有什么不同
- + 如何在 macOS、Linux、Windows 上完成基础安装
- + 如何配置 OpenAI、Anthropic、Ollama 等模型来源
- + 如何接入 Telegram、Discord、飞书等聊天平台
- + 如何验证第一条消息已经真正跑通

为什么值得了解 OpenClaw
如果你想要一个运行在自己设备或服务器上的 AI 助手,同时又希望它能接入你已经在用的聊天工具,OpenClaw 是一个很值得关注的起点。
它的核心定位不是“再做一个聊天机器人”,而是做一个自托管的 AI 助手网关:
- 一边连接 Telegram、Discord、飞书、WhatsApp 等聊天入口
- 一边连接 OpenAI、Anthropic、Gemini、Ollama 等模型来源
- 中间再接入插件、路由和自动化能力
换句话说,它适合的是“想把聊天入口、模型选择和控制权都握在自己手里”的开发者。
OpenClaw 和直接用 ChatGPT / Claude 有什么不同
| 对比维度 | OpenClaw | ChatGPT / Claude |
|---|---|---|
| 数据控制 | 自己控制部署和数据流 | 主要依赖官方托管 |
| 渠道接入 | 可接入多个聊天平台 | 主要在官方 App / Web 中使用 |
| 模型选择 | 可切换多家模型提供方 | 通常绑定在单一平台 |
| 可定制性 | 支持插件、系统提示词、渠道配置 | 自定义空间相对有限 |
| 部署方式 | 自托管 | 官方托管 |
如果你更看重隐私、扩展性和多渠道接入,OpenClaw 的吸引力会明显更大。
第一部分:先确认环境
开始安装前,先把下面几件事确认好:
Node.js版本满足项目要求- 网络能够访问你准备使用的模型服务
- 如果你是 Windows 用户,先决定走
WSL2还是原生安装
这一层先确认清楚,后面会省很多排障时间。
Windows 用户怎么选
我的建议比较直接:
- 如果你追求稳定,优先 WSL2
- 如果你只是快速试一下,可以先试原生 Windows
- 如果你准备长期跑服务,WSL2 通常更现实
第二部分:安装 OpenClaw
macOS / Linux
curl -fsSL https://openclaw.ai/install.sh | bash
Windows PowerShell
iwr -useb https://openclaw.ai/install.ps1 | iex
安装完成后,先验证命令是否可用:
openclaw --version
如果这一步都跑不通,不要急着做模型配置和平台接入,先把安装层解决。
第三部分:完成 onboarding
建议直接运行:
openclaw onboard --install-daemon
这一步通常会帮你完成几件事:
- 选择模型提供方
- 生成基础网关配置
- 安装守护进程
- 初始化运行环境
第一次选什么模型更稳
如果你是第一次上手,优先选接入最直接的模型来源:
- OpenAI
- Anthropic
- Gemini
如果你已经在本地跑了 Ollama,也可以直接接本地模型,但排障复杂度会更高一点。
第四部分:检查服务状态
安装和 onboarding 完成后,至少跑这三个命令:
openclaw status
openclaw logs
openclaw config validate
这三个命令很重要,因为它们分别回答三个问题:
- 服务是否已经启动
- 日志里有没有明显报错
- 当前配置是否语法正确
如果你打算长期使用 OpenClaw,这三条命令应该成为日常检查动作,而不是等出问题再想起来。
第五部分:接入第一个聊天平台
第一次接平台时,不要同时接很多个。
更稳的方式是先挑一个最熟悉、配置最简单的入口,比如 Telegram。
Telegram 的最小接入思路
- 在 Telegram 里通过
@BotFather创建 bot - 拿到
Bot Token - 打开 OpenClaw 配置文件
- 填入 Telegram 插件配置
- 重启服务并发送第一条消息
配置完成后,去目标聊天窗口里发一条简单消息,比如:
hello
如果能收到回复,说明最小链路已经打通:
聊天平台 -> OpenClaw -> 模型 -> OpenClaw -> 聊天平台
第六部分:先别急着做这些事
第一次上手时,最容易把自己带偏的事情有三类:
- 一开始就接很多平台
- 一开始就接很多插件
- 一开始就追求复杂个性化
更稳的顺序应该是:
- 先装好
- 先跑通第一条消息
- 再接第二个平台
- 最后再做个性化和生产化
第七部分:把它从“能跑”变成“更稳”
当你已经跑通第一条消息后,下一层工作通常是这些:
- 固定配置校验流程
- 固定日志查看习惯
- 处理端口、守护进程和重启策略
- 把模型 key、平台 token 和环境变量管理好
- 再考虑插件、渠道差异化配置和权限边界
这时候 OpenClaw 才是从“演示”开始走向“可用系统”。
延伸阅读
继续延伸
术语表
自托管
服务和数据运行在你自己的设备或服务器上,而不是完全依赖第三方托管平台。
Onboarding
从安装、配置到发出第一条消息的首轮上手流程。入门页的重点就是帮你把这条链跑通。
AI 网关
连接聊天平台和模型服务的桥接层。OpenClaw 的价值之一,就是把多个聊天入口和多个模型统一接起来。
要点总结
- - OpenClaw 是一个自托管 AI 助手网关,重点不是替代聊天工具,而是把聊天入口和模型统一起来
- - 第一次上手时,先跑通一条最小链路,比一开始就堆很多插件更稳
- - Windows 用户如果追求稳定,通常更适合优先走 WSL2 路线
- - 完成安装后,最值得立刻固定下来的动作是 status、logs、config validate
常见问题
OpenClaw 和普通聊天机器人有什么区别?
OpenClaw 不只是一个 bot,更像 AI 助手网关。它负责渠道接入、模型调度、插件管理和自动化流程编排。
可以接本地模型吗,比如 Ollama?
可以。你可以在 onboarding 阶段直接选择 Ollama,也可以后续手动配置本地模型地址。
Windows 用户优先选 WSL2 还是原生安装?
如果是长期使用,通常更建议优先走 WSL2,因为兼容性和后续维护都会更稳。