OpenClaw(龙虾机器人)AI 网关 - 1

OpenClaw(龙虾机器人)AI 网关

在 reComputer 上一键部署 OpenClaw(龙虾机器人)AI 消息网关,可选搭配本地模型,对话数据不出设备。

入门15min大语言模型
docker大模型ai-gatewayedge-aiJetson

这个方案能帮你做什么

想在微信、Telegram、Discord 上用 AI 聊天机器人,但不想一个个平台去对接、也担心数据隐私?OpenClaw(龙虾机器人)帮你把 20 多个聊天平台一键连接到任意 AI 模型,全部跑在你自己的 reComputer 设备上。

核心价值

好处具体说明
一个网关连 20+ 平台微信、Telegram、Discord、Slack、钉钉、飞书……一处管理,不用每个平台单独对接
自由切换 AI 模型OpenAI、DeepSeek 或任何兼容的 AI 服务,随时切换不用改配置
数据不出你的设备全部在你自己的 reComputer 上运行,对话内容不经过任何第三方云服务
可选本地模型利用设备算力在本地运行 AI 模型,完全断网也能对话,零隐私顾虑

适用场景

场景怎么用
个人 AI 助手把你的微信或 Telegram 接到 ChatGPT/DeepSeek,直接在聊天软件里和 AI 对话
团队机器人在 Slack 或 Discord 工作群里部署共享 AI 助手,全团队都能用
隐私优先在设备上本地运行 AI 模型,对话内容不出内网
Jetson 边缘 AI部署在 reComputer Jetson 上,利用 GPU 加速本地模型 + 消息平台对接

使用须知

输入输出

  • 输入:聊天消息(微信、Telegram、Discord、Slack 等 20+ 平台)
  • 输出:AI 回复回到对应聊天平台

配置说明

  • 填入目标 AI 模型的 API key 或本地模型地址
  • 填入各聊天平台的 bot token / webhook

方案对比

方案AI 模式核心设备适合谁
OpenClaw 算力网关本地 AI 模型reComputer Jetson隐私优先、断网环境、高并发对话
OpenClaw 网关云端 AI 服务reComputer R1100 / R2000轻量部署、有稳定网络、成本敏感

性能与成本参考

  • 本地 AI 模型(Jetson):2B 模型 20+ tokens/秒;4B/7B 更慢(受设备算力限制);无 token 费用
  • 云端 AI 服务(R1100/R2000):响应速度取决于云服务;按 LLM API 调用付费

集成接口

http

AI 消息网关 API(支持多家模型)

/ · Port: 11434 · Method: POST

部署方案

下载与安装

套餐: OpenClaw 算力网关 {#openclaw_basic}

部署 OpenClaw AI 消息网关,可选利用设备算力运行本地 AI 模型。

设备用途
reComputer Jetson运行 OpenClaw 网关和 GPU 加速的本地 AI 模型

部署完成后你可以:

  • AI 聊天网关支持 20+ 消息平台
  • 可选在设备上运行本地模型——对话数据不出内网
  • 通过 Web 管理界面进行配置

前提条件: 已安装 Docker · 需要联网(首次下载镜像)

步骤 1: 部署 OpenClaw {#deploy_openclaw type=docker_deploy required=true config=devices/local.yaml}

部署 OpenClaw(龙虾机器人)AI 网关。如果启用了本地模型,会自动启动并配置好。

部署目标: 本机部署 {#local config=devices/local.yaml default=true}

在 reComputer Jetson 设备上本地部署(需在 Jetson 上打开本软件)。

接线

  1. 确保 Docker 已安装并运行
  2. 可选勾选 启用本地模型 并选择模型
  3. 点击 部署 启动服务

部署完成

  1. 复制部署日志中显示的 网关访问令牌(Token)
  2. 在浏览器打开 http://localhost:18789
  3. 进入 概览 页面(左侧菜单 → "控制" 下的 概览
  4. 网关访问 区域,将 Token 粘贴到 网关令牌 输入框中
  5. 点击 连接 完成认证
  6. 连接你的第一个消息平台(微信、Telegram、Discord 等)
  7. 如果启用了本地模型,已自动配置好——创建智能体时选择本地模型即可

故障排除

问题解决方法
端口 18789 被占用停止占用该端口的服务,或检查 OpenClaw 是否已在运行
找不到 Docker安装 Docker Desktop 并确保已启动
模型下载慢大模型下载需要时间,检查网络连接
OpenClaw 容器反复重启查看日志:docker logs openclaw-gateway

部署目标: 远程部署 (Jetson) {#jetson_remote config=devices/jetson.yaml}

通过 SSH 部署到 reComputer Jetson 设备,利用 GPU 加速本地模型。

接线

  1. 将 reComputer Jetson 连接到同一局域网
  2. 输入 Jetson IP 地址、SSH 用户名和密码
  3. 可选勾选 启用本地模型 并选择模型
  4. 点击 部署 启动服务

资源要求:仅 OpenClaw 需要 12GB 磁盘 + 4GB 内存;加 Ollama 需要 20GB 磁盘 + 8GB 内存。

部署完成

  1. 复制部署日志中显示的 网关访问令牌(Token)
  2. OpenClaw 要求通过 localhost 访问管理界面,方式 A:在 Jetson 上接显示器,打开浏览器访问 http://localhost:18789方式 B:在你的电脑上运行 ssh -L 18789:localhost:18789 <用户名>@<Jetson IP>,然后在本地浏览器打开 http://localhost:18789
  3. 进入 概览 页面(左侧菜单 → "控制" 下的 概览
  4. 网关访问 区域,将 Token 粘贴到 网关令牌 输入框中
  5. 点击 连接 完成认证
  6. 连接你的第一个消息平台
  7. 如果启用了本地模型,已自动配置好并使用 GPU 加速——创建智能体时选择本地模型即可

故障排除

问题解决方法
SSH 连接失败检查 Jetson IP 地址、用户名、密码和 SSH 服务是否运行
未检测到 NVIDIA 运行时确保已安装 NVIDIA 容器运行时:nvidia-smi 应能正常执行
Docker Compose 不可用安装:sudo apt-get install -y docker-compose-plugin
模型下载慢首次下载需要获取完整模型,后续使用缓存
磁盘空间不足仅部署 OpenClaw 至少需要 12GB 空闲磁盘;启用 Ollama 后需要 20GB。用 df -h / 检查
系统内存不足仅部署 OpenClaw 至少需要 4GB 内存;启用 Ollama 后需要 8GB。用 awk '/^MemTotal:/ {print int(($2 + 1048575) / 1048576) "GB"}' /proc/meminfo 检查
端口 11434 被占用可能已有本地 AI 服务在运行,部署器会自动使用它

套餐: OpenClaw 网关 {#openclaw_recomputer_r}

在 reComputer R 系列上部署 OpenClaw AI 消息网关。轻量部署——仅网关服务,无需本地模型。

设备用途
reComputer R1100 / R2000运行 OpenClaw 网关服务

部署完成后你可以:

  • 在微信、Telegram、Discord 等 20+ 消息平台上与 AI 对话
  • 通过 Web 管理界面统一管理所有渠道
  • 连接云端 AI 服务(OpenAI、Claude 等)进行对话

前提条件: 已安装 Docker · 需要联网(首次下载镜像)

步骤 1: 部署 OpenClaw {#deploy_openclaw_r type=docker_deploy required=true config=devices/recomputer_r_local.yaml}

在 reComputer R 上部署 OpenClaw(龙虾机器人)AI 网关。

部署目标: 本机部署 {#r_local config=devices/recomputer_r_local.yaml default=true}

部署在你当前使用的设备上。

接线

  1. 确保 Docker 已安装并运行
  2. 点击 部署 启动服务

部署完成

  1. 复制部署日志中显示的 网关访问令牌(Token)
  2. 在浏览器打开 http://localhost:18789
  3. 进入 概览 页面(左侧菜单 → "控制" 下的 概览
  4. 网关访问 区域,将 Token 粘贴到 网关令牌 输入框中
  5. 点击 连接 完成认证
  6. 连接你的第一个消息平台(微信、Telegram、Discord 等)

故障排除

问题解决方法
端口 18789 被占用停止占用该端口的服务,或检查 OpenClaw 是否已在运行
找不到 Docker安装 Docker Desktop 并确保已启动
OpenClaw 容器反复重启查看日志:docker logs openclaw-gateway

部署目标: 远程部署 {#r_remote config=devices/recomputer_r_remote.yaml}

通过 SSH 部署到 reComputer R 设备。

接线

  1. 将 reComputer R 连接到同一局域网
  2. 输入设备 IP 地址、SSH 用户名和密码
  3. 点击 部署 启动服务

部署完成

  1. 复制部署日志中显示的 网关访问令牌(Token)
  2. OpenClaw 要求通过 localhost 访问管理界面,方式 A:在设备上接显示器,打开浏览器访问 http://localhost:18789方式 B:在你的电脑上运行 ssh -L 18789:localhost:18789 <用户名>@<设备 IP>,然后在本地浏览器打开 http://localhost:18789
  3. 进入 概览 页面(左侧菜单 → "控制" 下的 概览
  4. 网关访问 区域,将 Token 粘贴到 网关令牌 输入框中
  5. 点击 连接 完成认证
  6. 连接你的第一个消息平台

故障排除

问题解决方法
SSH 连接失败检查设备 IP 地址、用户名、密码和 SSH 服务是否运行
Docker Compose 不可用安装:sudo apt-get install -y docker-compose-plugin
磁盘空间不足至少需要 4GB 空闲空间,用 df -h / 检查
OpenClaw 容器反复重启查看日志:docker logs openclaw-gateway

部署完成

OpenClaw(龙虾机器人)AI 网关已部署完成。按照上方步骤中的"部署完成"指引登录后,即可开始使用。

试试对话

  1. 在左侧菜单点击 聊天,发送一条消息验证 AI 是否正常响应
  2. 如果启用了本地模型,已自动配置好,无需额外设置

连接消息平台

  1. 在左侧菜单点击 频道,添加你的消息平台(微信、Telegram、Discord 等)
  2. 按照 OpenClaw 界面中的提示完成平台授权
  3. 通过已连接的平台发送一条测试消息

后续步骤

  • OpenClaw 文档
  • 在 设置 > 模型 中添加更多 AI 提供者
  • 连接更多消息平台
联系我们
获取方案参考设计与产品选型支持。
您是否使用过我们的产品?