📖 简介

OpenClaw(曾用名 Clawdbot)是一款在 2026 年爆火的开源个人 AI 助手,GitHub 星标已超过 10 万。与传统 AI 聊天机器人的根本区别在于:真正的执行能力 —— 不仅能回答问题,还能实际操作你的电脑。

1Panel 是一款现代化、开源的 Linux 服务器运维管理面板,是部署和管理 OpenClaw 的最佳工具之一。

🎯 准备工作

系统要求

基础配置:

  • Linux 服务器(推荐 Ubuntu 24.04 LTS)
  • 至少 2GB 内存(建议 8GB+)
  • 至少 20GB 磁盘空间(使用本地模型需 100GB+)
  • Docker 环境(1Panel 会自动安装)
  • 稳定的网络连接

高级配置(可选):

  • NVIDIA GPU(用于加速本地模型推理)
  • 20核 80G 配置(运行大模型推荐)
  • 公网 IP 或域名(接入聊天工具需要)

部署方案选择

方案优点缺点适用场景
云端 API配置简单、响应快需要付费、隐私风险快速体验、轻度使用
本地模型完全免费、隐私保护需要 GPU、配置复杂长期使用、隐私敏感
混合方案灵活切换、按需使用需要两套配置平衡性能与成本

本教程涵盖两种方案的详细配置步骤。

所需资源

方案一:云端 API(快速开始)

  • AI 模型 API Key(DeepSeek、Qwen、OpenAI 等)
  • 服务器公网 IP 或域名(可选)

方案二:本地模型(隐私优先)

  • 无需外部 Token,隐私更有保障 ✅
  • NVIDIA GPU 及驱动(推荐)
  • Ollama 运行环境
  • 聊天平台账号(可选,如飞书、Telegram 等)

📦 第一步:安装 1Panel

1.1 在线安装(推荐)

执行以下命令,根据提示完成安装:

curl -sSL https://resource.fit2cloud.com/1panel/package/v2/quick_start.sh | bash

安装过程中会提示:

  • 选择安装目录(默认 /opt
  • 设置面板端口(默认 10086
  • 设置访问入口路径
  • 设置 IPv6 访问(可选)
  • 创建面板用户名和密码

1.2 访问 1Panel

安装完成后,使用浏览器访问:

http://[服务器IP]:[端口]/[入口路径]

使用安装时设置的用户名和密码登录。

🎨 第二步:选择部署方案

方案 A:云端 API 快速部署(推荐新手)

直接跳到 第三步:部署 OpenClaw(云端 API)

方案 B:本地模型完整部署(推荐长期使用)

按顺序完成:

  1. 第二步(B1):配置 GPU 环境(可选)
  2. 第二步(B2):部署 Ollama
  3. 第二步(B3):加载本地模型
  4. 第三步:部署 OpenClaw(本地模型)

🖥️ 第二步(B1):配置 GPU 环境(可选)

⚠️ 如果服务器没有 NVIDIA GPU,可跳过此步骤,直接使用 CPU 运行模型(速度较慢)

B1.1 检查 GPU 驱动

SSH 连接服务器,执行:

nvidia-smi

如果显示 GPU 信息,说明驱动已安装。如果报错,需要先安装 NVIDIA 驱动。

B1.2 安装 NVIDIA Container Toolkit

# 添加 NVIDIA GPG 密钥
distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add -
 
# 添加仓库
curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | \
  sudo tee /etc/apt/sources.list.d/nvidia-docker.list
 
# 安装容器工具包
sudo apt-get update
sudo apt-get install -y nvidia-container-toolkit
 
# 重启 Docker
sudo systemctl restart docker

B1.3 验证配置

docker run --rm --gpus all nvidia/cuda:12.0-base nvidia-smi

如果成功显示 GPU 信息,说明配置完成。


🧠 第二步(B2):部署 Ollama

B2.1 在 1Panel 安装 Ollama

  1. 登录 1Panel 控制台
  2. 点击左侧 应用商店
  3. 搜索 Ollama
  4. 点击 安装

B2.2 配置 Ollama 参数

在安装界面配置:

参数设置说明
应用名称ollama默认即可
端口11434默认端口
端口外部访问勾选允许 OpenClaw 访问
开启 GPU 支持勾选(有 GPU 时)启用 GPU 加速

点击 确认 安装,等待容器启动。

B2.3 验证 Ollama 运行

在浏览器访问:

http://[服务器IP]:11434

如果显示 “Ollama is running”,说明安装成功。


📥 第二步(B3):加载本地模型

B3.1 推荐模型选择

模型参数量内存需求适用场景
gpt-oss:20b20B~16GB官方推荐,综合性能强
qwen2.5:14b14B~10GB平衡性能与资源
deepseek-r1:14b14B~10GB推理能力强
qwen-coder:30b30B~24GB代码任务专用
llama3:8b8B~6GB轻量级,速度快

B3.2 方法一:通过 1Panel AI 管理(推荐)

  1. 在 1Panel 左侧菜单点击 AI
  2. 点击 添加模型
  3. 选择 Ollama 作为提供商
  4. 输入模型名称:gpt-oss:20b(或其他模型)
  5. 点击 拉取

⏱️ 注意:首次下载大模型需要 20-30 分钟,请耐心等待。

B3.3 方法二:通过终端拉取

在 1Panel 中:

  1. 点击 容器 → 找到 ollama → 点击 终端
  2. 执行以下命令:
# 拉取官方推荐模型
ollama pull gpt-oss:20b
 
# 或拉取其他模型
ollama pull qwen2.5:14b
ollama pull deepseek-r1:14b

B3.4 验证模型加载

# 查看已安装的模型
ollama list
 
# 测试对话
ollama run gpt-oss:20b "你好"

🚀 第三步:部署 OpenClaw

方案选择

  • 使用云端 API:参考 3.1-3.4(云端配置)
  • 使用本地模型:参考 3.5-3.6(本地配置)

3.1 进入应用商店

登录 1Panel 控制台后,点击左侧菜单的 应用商店

3.2 搜索并安装 OpenClaw

  1. 在右上角搜索框输入 OpenClaw
  2. 点击应用详情
  3. 点击 安装 按钮

3.3 配置安装参数(云端 API)

在安装界面配置以下参数:

参数说明默认值示例
应用名称自定义名称openclawopenclaw
版本选择最新稳定版-v2026.1.25
WebUI 端口Web 访问端口1878918789
Bridge 端口桥接端口1879018790
AI 模型提供商选择使用的 AI 服务商-DeepSeek / OpenAI / Qwen
模型标识符具体模型名称-deepseek-chat / gpt-4
API KeyAI 服务商的密钥-sk-xxxxxxxxxxxxx

推荐模型配置

国内模型(成本低):

  • DeepSeek: 模型 deepseek-chat,性价比高
  • Qwen: 模型 qwen-plus,免费额度充足
  • 智谱 GLM: 模型 glm-4-plus,国产优质模型

国际模型(性能强):

  • OpenAI: 模型 gpt-4ogpt-4-turbo
  • Anthropic Claude: 模型 claude-3-5-sonnet

3.4 完成安装

点击 确认 按钮,等待 Docker 镜像拉取和容器启动(约 2-5 分钟)。


3.5 配置安装参数(本地模型 Ollama)

如果你已经完成了 第二步(B1-B3) 的 Ollama 部署,按以下方式配置:

参数设置说明
应用名称openclaw默认即可
版本最新版本v2026.1.25 或更新
WebUI 端口18789默认端口
Bridge 端口18790默认端口
AI 模型提供商Ollama⚠️ 选择 Ollama
模型标识符gpt-oss:20b或你拉取的其他模型
Base URLhttp://ollama:11434/v1⚠️ 注意格式
API Keyollama随意填写(Ollama 不验证)

重要提示:

  • Base URL 格式:http://ollama:11434/v1(Docker 网络内部地址)
  • 如果 Ollama 使用其他端口,需相应修改
  • 模型名称必须与 ollama list 中显示的完全一致

3.6 完成安装

点击 确认 按钮,等待 Docker 镜像拉取和容器启动(约 2-5 分钟)。

🔑 第四步:获取访问 Token

3.1 进入应用数据目录

安装完成后,在 1Panel 中:

  1. 点击左侧 文件 菜单
  2. 导航至应用数据目录:
    /opt/1panel/apps/openclaw/openclaw/data/conf
    

3.2 获取 Token

  1. 打开 openclaw.json 文件
  2. 找到以下字段:
    {
      "gateway": {
        "auth": {
          "token": "your-token-here"
        }
      }
    }
  3. 复制 token 的值(用于后续访问认证)

提示:也可以通过 1Panel 的终端执行:

cat /opt/1panel/apps/openclaw/openclaw/data/conf/openclaw.json | grep token

🌐 第五步:访问 OpenClaw WebUI

4.1 构建访问地址

使用以下格式构建访问 URL:

http://[服务器IP]:[WebUI端口]?token=[你的token]

示例:

http://192.168.1.100:18789?token=abc123xyz789

4.2 首次访问

  1. 在浏览器中打开上述地址
  2. 系统会自动验证 token
  3. 成功后进入 OpenClaw 控制面板

4.3 基础设置

在 WebUI 中可以:

  • 查看 OpenClaw 运行状态
  • 测试 AI 对话功能
  • 配置聊天渠道
  • 查看执行日志

💬 第六步:接入聊天工具(可选)

OpenClaw 支持多种聊天平台,以下是常用配置方式。

6.1 进入容器终端

在 1Panel 中:

  1. 点击 容器 菜单
  2. 找到 openclaw 容器
  3. 点击 终端 按钮

或使用 SSH 执行:

docker exec -it openclaw bash

6.2 添加聊天渠道

执行以下命令添加聊天工具:

docker compose -f docker-compose-cli.yml run --rm openclaw-cli channels add

系统会提示选择平台类型,支持:

  • Telegram:适合个人使用
  • 飞书/Lark:适合企业团队
  • Slack:国际团队常用
  • Discord:社区和游戏群组
  • 钉钉:国内企业常用

6.3 飞书接入示例

  1. 在飞书开放平台创建应用
  2. 获取 App IDApp Secret
  3. 在 OpenClaw 中配置:
    • 选择 Lark 平台
    • 输入 App ID
    • 输入 App Secret
    • 设置回调 URL:http://[服务器IP]:[Bridge端口]/webhook/lark
  4. 在飞书后台配置事件订阅和消息推送

6.4 Telegram 接入示例

  1. @BotFather 对话创建 Bot
  2. 获取 Bot Token
  3. 在 OpenClaw 中配置:
    • 选择 Telegram 平台
    • 输入 Bot Token
    • 设置 Webhook:http://[服务器IP]:[Bridge端口]/webhook/telegram

🔧 进阶配置

OpenClaw 支持集成 Brave Search API,让 AI 助手能够实时搜索网络信息。

1. 获取 Brave Search API Key

  1. 访问 Brave Search API
  2. 注册账号并创建应用
  3. 获取 API Key(免费额度:每月 2000 次查询)

2. 在 OpenClaw 中配置

  1. 访问 OpenClaw WebUI
  2. 进入 设置工具配置
  3. 找到 Brave Search 选项
  4. 输入 API Key
  5. 保存配置

3. 测试搜索功能

在聊天界面输入:

帮我搜索一下 2026 年 AI 发展趋势

OpenClaw 会自动调用 Brave Search 获取最新信息。

配置反向代理

使用 1Panel 的 网站 功能配置 Nginx 反向代理:

location / {
    proxy_pass http://127.0.0.1:18789;
    proxy_set_header Host $host;
    proxy_set_header X-Real-IP $remote_addr;
    proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
}

这样可以通过域名访问,并配置 SSL 证书。

数据备份

OpenClaw 的重要数据位于:

/opt/1panel/apps/openclaw/openclaw/data/

建议定期备份:

tar -czf openclaw-backup-$(date +%Y%m%d).tar.gz \
  /opt/1panel/apps/openclaw/openclaw/data/

❓ 常见问题

Q1: 安装后无法访问 WebUI?

解决方法

  1. 检查防火墙是否开放端口:
    firewall-cmd --zone=public --add-port=18789/tcp --permanent
    firewall-cmd --reload
  2. 检查容器状态:
    docker ps | grep openclaw
  3. 查看容器日志:
    docker logs openclaw

Q2: AI 回复错误或不工作?

检查事项

  • API Key 是否正确
  • 模型名称是否匹配
  • 网络是否能访问 AI 服务(国内可能需要代理)
  • 查看日志中的错误信息

Q3: 聊天工具连接失败?

常见原因

  • Webhook URL 配置错误
  • 服务器端口未开放
  • 回调地址无法从外网访问(需要公网 IP 或内网穿透)

Q4: 如何更新 OpenClaw?

在 1Panel 中:

  1. 进入 应用商店
  2. 找到已安装的 OpenClaw
  3. 点击 更新 按钮
  4. 等待更新完成后重启容器

⚠️ 注意:更新前请备份数据!

🔒 隐私保护优势

使用本地模型部署 OpenClaw 的隐私优势:

对比项云端 API本地模型
数据传输发送至第三方服务器完全在本地处理 ✅
Token 消耗按量付费无需外部 Token ✅
网络依赖必须联网仅模型推理本地化 ✅
隐私风险可能被记录/训练数据不出服务器 ✅
成本长期使用成本高硬件一次性投入 ✅

推荐场景

  • 处理敏感数据(个人笔记、企业文档)
  • 长期高频使用(成本更优)
  • 内网环境部署(无外网依赖)

📚 相关资源

🎉 总结

通过 1Panel 部署 OpenClaw 的优势:

  • 一键安装:无需手动配置 Docker
  • 可视化管理:所有操作都有图形界面
  • 持久化数据:数据自动保存,升级无忧
  • 集成监控:实时查看资源使用情况
  • 应用生态:可同时部署 Ollama、数据库等配套服务
  • 隐私保护:本地模型方案,数据不外传

下一步建议:

  1. 🤖 接入常用聊天工具(飞书/Telegram)
  2. 🔍 配置 Brave Search 实现联网搜索
  3. 📝 探索 OpenClaw 的自动化能力
  4. 🔐 配置 SSL 证书实现 HTTPS 访问

现在你已经拥有了一个 7×24 小时在线、保护隐私的个人 AI 助手!🚀


Sources: