📖 简介
OpenClaw(曾用名 Clawdbot)是一款在 2026 年爆火的开源个人 AI 助手,GitHub 星标已超过 10 万。与传统 AI 聊天机器人的根本区别在于:真正的执行能力 —— 不仅能回答问题,还能实际操作你的电脑。
1Panel 是一款现代化、开源的 Linux 服务器运维管理面板,是部署和管理 OpenClaw 的最佳工具之一。
🎯 准备工作
系统要求
基础配置:
- Linux 服务器(推荐 Ubuntu 24.04 LTS)
- 至少 2GB 内存(建议 8GB+)
- 至少 20GB 磁盘空间(使用本地模型需 100GB+)
- Docker 环境(1Panel 会自动安装)
- 稳定的网络连接
高级配置(可选):
- NVIDIA GPU(用于加速本地模型推理)
- 20核 80G 配置(运行大模型推荐)
- 公网 IP 或域名(接入聊天工具需要)
部署方案选择
| 方案 | 优点 | 缺点 | 适用场景 |
|---|---|---|---|
| 云端 API | 配置简单、响应快 | 需要付费、隐私风险 | 快速体验、轻度使用 |
| 本地模型 | 完全免费、隐私保护 | 需要 GPU、配置复杂 | 长期使用、隐私敏感 |
| 混合方案 | 灵活切换、按需使用 | 需要两套配置 | 平衡性能与成本 |
本教程涵盖两种方案的详细配置步骤。
所需资源
方案一:云端 API(快速开始)
- AI 模型 API Key(DeepSeek、Qwen、OpenAI 等)
- 服务器公网 IP 或域名(可选)
方案二:本地模型(隐私优先)
- 无需外部 Token,隐私更有保障 ✅
- NVIDIA GPU 及驱动(推荐)
- Ollama 运行环境
- 聊天平台账号(可选,如飞书、Telegram 等)
📦 第一步:安装 1Panel
1.1 在线安装(推荐)
执行以下命令,根据提示完成安装:
curl -sSL https://resource.fit2cloud.com/1panel/package/v2/quick_start.sh | bash安装过程中会提示:
- 选择安装目录(默认
/opt) - 设置面板端口(默认
10086) - 设置访问入口路径
- 设置 IPv6 访问(可选)
- 创建面板用户名和密码
1.2 访问 1Panel
安装完成后,使用浏览器访问:
http://[服务器IP]:[端口]/[入口路径]
使用安装时设置的用户名和密码登录。
🎨 第二步:选择部署方案
方案 A:云端 API 快速部署(推荐新手)
直接跳到 第三步:部署 OpenClaw(云端 API)
方案 B:本地模型完整部署(推荐长期使用)
按顺序完成:
- 第二步(B1):配置 GPU 环境(可选)
- 第二步(B2):部署 Ollama
- 第二步(B3):加载本地模型
- 第三步:部署 OpenClaw(本地模型)
🖥️ 第二步(B1):配置 GPU 环境(可选)
⚠️ 如果服务器没有 NVIDIA GPU,可跳过此步骤,直接使用 CPU 运行模型(速度较慢)
B1.1 检查 GPU 驱动
SSH 连接服务器,执行:
nvidia-smi如果显示 GPU 信息,说明驱动已安装。如果报错,需要先安装 NVIDIA 驱动。
B1.2 安装 NVIDIA Container Toolkit
# 添加 NVIDIA GPG 密钥
distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add -
# 添加仓库
curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | \
sudo tee /etc/apt/sources.list.d/nvidia-docker.list
# 安装容器工具包
sudo apt-get update
sudo apt-get install -y nvidia-container-toolkit
# 重启 Docker
sudo systemctl restart dockerB1.3 验证配置
docker run --rm --gpus all nvidia/cuda:12.0-base nvidia-smi如果成功显示 GPU 信息,说明配置完成。
🧠 第二步(B2):部署 Ollama
B2.1 在 1Panel 安装 Ollama
- 登录 1Panel 控制台
- 点击左侧 应用商店
- 搜索 Ollama
- 点击 安装
B2.2 配置 Ollama 参数
在安装界面配置:
| 参数 | 设置 | 说明 |
|---|---|---|
| 应用名称 | ollama | 默认即可 |
| 端口 | 11434 | 默认端口 |
| 端口外部访问 | ✅ 勾选 | 允许 OpenClaw 访问 |
| 开启 GPU 支持 | ✅ 勾选(有 GPU 时) | 启用 GPU 加速 |
点击 确认 安装,等待容器启动。
B2.3 验证 Ollama 运行
在浏览器访问:
http://[服务器IP]:11434
如果显示 “Ollama is running”,说明安装成功。
📥 第二步(B3):加载本地模型
B3.1 推荐模型选择
| 模型 | 参数量 | 内存需求 | 适用场景 |
|---|---|---|---|
| gpt-oss:20b | 20B | ~16GB | 官方推荐,综合性能强 |
| qwen2.5:14b | 14B | ~10GB | 平衡性能与资源 |
| deepseek-r1:14b | 14B | ~10GB | 推理能力强 |
| qwen-coder:30b | 30B | ~24GB | 代码任务专用 |
| llama3:8b | 8B | ~6GB | 轻量级,速度快 |
B3.2 方法一:通过 1Panel AI 管理(推荐)
- 在 1Panel 左侧菜单点击 AI
- 点击 添加模型
- 选择 Ollama 作为提供商
- 输入模型名称:
gpt-oss:20b(或其他模型) - 点击 拉取
⏱️ 注意:首次下载大模型需要 20-30 分钟,请耐心等待。
B3.3 方法二:通过终端拉取
在 1Panel 中:
- 点击 容器 → 找到
ollama→ 点击 终端 - 执行以下命令:
# 拉取官方推荐模型
ollama pull gpt-oss:20b
# 或拉取其他模型
ollama pull qwen2.5:14b
ollama pull deepseek-r1:14bB3.4 验证模型加载
# 查看已安装的模型
ollama list
# 测试对话
ollama run gpt-oss:20b "你好"🚀 第三步:部署 OpenClaw
方案选择
- 使用云端 API:参考 3.1-3.4(云端配置)
- 使用本地模型:参考 3.5-3.6(本地配置)
3.1 进入应用商店
登录 1Panel 控制台后,点击左侧菜单的 应用商店。
3.2 搜索并安装 OpenClaw
- 在右上角搜索框输入 OpenClaw
- 点击应用详情
- 点击 安装 按钮
3.3 配置安装参数(云端 API)
在安装界面配置以下参数:
| 参数 | 说明 | 默认值 | 示例 |
|---|---|---|---|
| 应用名称 | 自定义名称 | openclaw | openclaw |
| 版本 | 选择最新稳定版 | - | v2026.1.25 |
| WebUI 端口 | Web 访问端口 | 18789 | 18789 |
| Bridge 端口 | 桥接端口 | 18790 | 18790 |
| AI 模型提供商 | 选择使用的 AI 服务商 | - | DeepSeek / OpenAI / Qwen |
| 模型标识符 | 具体模型名称 | - | deepseek-chat / gpt-4 |
| API Key | AI 服务商的密钥 | - | sk-xxxxxxxxxxxxx |
推荐模型配置
国内模型(成本低):
- DeepSeek: 模型
deepseek-chat,性价比高 - Qwen: 模型
qwen-plus,免费额度充足 - 智谱 GLM: 模型
glm-4-plus,国产优质模型
国际模型(性能强):
- OpenAI: 模型
gpt-4o或gpt-4-turbo - Anthropic Claude: 模型
claude-3-5-sonnet
3.4 完成安装
点击 确认 按钮,等待 Docker 镜像拉取和容器启动(约 2-5 分钟)。
3.5 配置安装参数(本地模型 Ollama)
如果你已经完成了 第二步(B1-B3) 的 Ollama 部署,按以下方式配置:
| 参数 | 设置 | 说明 |
|---|---|---|
| 应用名称 | openclaw | 默认即可 |
| 版本 | 最新版本 | v2026.1.25 或更新 |
| WebUI 端口 | 18789 | 默认端口 |
| Bridge 端口 | 18790 | 默认端口 |
| AI 模型提供商 | Ollama | ⚠️ 选择 Ollama |
| 模型标识符 | gpt-oss:20b | 或你拉取的其他模型 |
| Base URL | http://ollama:11434/v1 | ⚠️ 注意格式 |
| API Key | ollama | 随意填写(Ollama 不验证) |
重要提示:
- Base URL 格式:
http://ollama:11434/v1(Docker 网络内部地址) - 如果 Ollama 使用其他端口,需相应修改
- 模型名称必须与
ollama list中显示的完全一致
3.6 完成安装
点击 确认 按钮,等待 Docker 镜像拉取和容器启动(约 2-5 分钟)。
🔑 第四步:获取访问 Token
3.1 进入应用数据目录
安装完成后,在 1Panel 中:
- 点击左侧 文件 菜单
- 导航至应用数据目录:
/opt/1panel/apps/openclaw/openclaw/data/conf
3.2 获取 Token
- 打开
openclaw.json文件 - 找到以下字段:
{ "gateway": { "auth": { "token": "your-token-here" } } } - 复制
token的值(用于后续访问认证)
提示:也可以通过 1Panel 的终端执行:
cat /opt/1panel/apps/openclaw/openclaw/data/conf/openclaw.json | grep token🌐 第五步:访问 OpenClaw WebUI
4.1 构建访问地址
使用以下格式构建访问 URL:
http://[服务器IP]:[WebUI端口]?token=[你的token]
示例:
http://192.168.1.100:18789?token=abc123xyz789
4.2 首次访问
- 在浏览器中打开上述地址
- 系统会自动验证 token
- 成功后进入 OpenClaw 控制面板
4.3 基础设置
在 WebUI 中可以:
- 查看 OpenClaw 运行状态
- 测试 AI 对话功能
- 配置聊天渠道
- 查看执行日志
💬 第六步:接入聊天工具(可选)
OpenClaw 支持多种聊天平台,以下是常用配置方式。
6.1 进入容器终端
在 1Panel 中:
- 点击 容器 菜单
- 找到
openclaw容器 - 点击 终端 按钮
或使用 SSH 执行:
docker exec -it openclaw bash6.2 添加聊天渠道
执行以下命令添加聊天工具:
docker compose -f docker-compose-cli.yml run --rm openclaw-cli channels add系统会提示选择平台类型,支持:
- Telegram:适合个人使用
- 飞书/Lark:适合企业团队
- Slack:国际团队常用
- Discord:社区和游戏群组
- 钉钉:国内企业常用
6.3 飞书接入示例
- 在飞书开放平台创建应用
- 获取
App ID和App Secret - 在 OpenClaw 中配置:
- 选择
Lark平台 - 输入 App ID
- 输入 App Secret
- 设置回调 URL:
http://[服务器IP]:[Bridge端口]/webhook/lark
- 选择
- 在飞书后台配置事件订阅和消息推送
6.4 Telegram 接入示例
- 与
@BotFather对话创建 Bot - 获取 Bot Token
- 在 OpenClaw 中配置:
- 选择
Telegram平台 - 输入 Bot Token
- 设置 Webhook:
http://[服务器IP]:[Bridge端口]/webhook/telegram
- 选择
🔧 进阶配置
配置 Web 搜索功能(Brave Search)
OpenClaw 支持集成 Brave Search API,让 AI 助手能够实时搜索网络信息。
1. 获取 Brave Search API Key
- 访问 Brave Search API
- 注册账号并创建应用
- 获取 API Key(免费额度:每月 2000 次查询)
2. 在 OpenClaw 中配置
- 访问 OpenClaw WebUI
- 进入 设置 → 工具配置
- 找到 Brave Search 选项
- 输入 API Key
- 保存配置
3. 测试搜索功能
在聊天界面输入:
帮我搜索一下 2026 年 AI 发展趋势
OpenClaw 会自动调用 Brave Search 获取最新信息。
配置反向代理
使用 1Panel 的 网站 功能配置 Nginx 反向代理:
location / {
proxy_pass http://127.0.0.1:18789;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
}这样可以通过域名访问,并配置 SSL 证书。
数据备份
OpenClaw 的重要数据位于:
/opt/1panel/apps/openclaw/openclaw/data/
建议定期备份:
tar -czf openclaw-backup-$(date +%Y%m%d).tar.gz \
/opt/1panel/apps/openclaw/openclaw/data/❓ 常见问题
Q1: 安装后无法访问 WebUI?
解决方法:
- 检查防火墙是否开放端口:
firewall-cmd --zone=public --add-port=18789/tcp --permanent firewall-cmd --reload - 检查容器状态:
docker ps | grep openclaw - 查看容器日志:
docker logs openclaw
Q2: AI 回复错误或不工作?
检查事项:
- API Key 是否正确
- 模型名称是否匹配
- 网络是否能访问 AI 服务(国内可能需要代理)
- 查看日志中的错误信息
Q3: 聊天工具连接失败?
常见原因:
- Webhook URL 配置错误
- 服务器端口未开放
- 回调地址无法从外网访问(需要公网 IP 或内网穿透)
Q4: 如何更新 OpenClaw?
在 1Panel 中:
- 进入 应用商店
- 找到已安装的 OpenClaw
- 点击 更新 按钮
- 等待更新完成后重启容器
⚠️ 注意:更新前请备份数据!
🔒 隐私保护优势
使用本地模型部署 OpenClaw 的隐私优势:
| 对比项 | 云端 API | 本地模型 |
|---|---|---|
| 数据传输 | 发送至第三方服务器 | 完全在本地处理 ✅ |
| Token 消耗 | 按量付费 | 无需外部 Token ✅ |
| 网络依赖 | 必须联网 | 仅模型推理本地化 ✅ |
| 隐私风险 | 可能被记录/训练 | 数据不出服务器 ✅ |
| 成本 | 长期使用成本高 | 硬件一次性投入 ✅ |
推荐场景:
- 处理敏感数据(个人笔记、企业文档)
- 长期高频使用(成本更优)
- 内网环境部署(无外网依赖)
📚 相关资源
🎉 总结
通过 1Panel 部署 OpenClaw 的优势:
- ✅ 一键安装:无需手动配置 Docker
- ✅ 可视化管理:所有操作都有图形界面
- ✅ 持久化数据:数据自动保存,升级无忧
- ✅ 集成监控:实时查看资源使用情况
- ✅ 应用生态:可同时部署 Ollama、数据库等配套服务
- ✅ 隐私保护:本地模型方案,数据不外传
下一步建议:
- 🤖 接入常用聊天工具(飞书/Telegram)
- 🔍 配置 Brave Search 实现联网搜索
- 📝 探索 OpenClaw 的自动化能力
- 🔐 配置 SSL 证书实现 HTTPS 访问
现在你已经拥有了一个 7×24 小时在线、保护隐私的个人 AI 助手!🚀
Sources: