一条命令安装 OpenClaw

OpenClaw 是一个开源的 AI 助手框架,在 GitHub 上拥有超过 334K+ 星标,是目前最具影响力的 AI Agent 开发平台之一。它为开发者提供了一套完整的工具链,用于构建能够理解自然语言指令、执行复杂任务、与外部工具和 API 交互的智能 Agent。OpenClaw 的架构设计遵循 Model Context Protocol(MCP)标准,使得 Agent 能够安全、可控地访问文件系统、数据库、Web API 等外部资源。

OpenClaw 的核心价值在于让 AI 从"对话工具"进化为"执行工具"。通过 OpenClaw,用户可以构建能够自主完成代码编写、文档生成、数据分析、系统管理等实际任务的 AI 助手。它支持多种 LLM 后端,包括 Claude、GPT、本地模型等,并提供了灵活的权限控制和审计机制,满足企业级安全要求。

为什么 OpenClaw 安装这么难?

OpenClaw 是一个多组件的分布式系统,其完整安装涉及的服务数量和配置复杂度远超一般的 AI 工具。以下是用户最常遇到的安装挑战:

  • 多服务架构复杂 — OpenClaw 由 Platform(控制平面)、Worker(执行节点)、MCP Server(工具网关)、数据库等多个服务组成。每个服务有自己的运行时依赖和配置要求,手动逐一部署极易出错。服务间的通信依赖正确的网络配置和认证 Token,任何一环断裂都会导致整个系统不可用。
  • 数据库设置 — OpenClaw 需要 PostgreSQL 数据库来存储任务状态、设备信息和运行日志。安装 PostgreSQL、创建数据库和用户、执行 Schema 迁移、配置连接字符串——每一步都可能出错。对于不熟悉数据库管理的开发者来说,这是一个显著的门槛。
  • Agent 配置 — OpenClaw 的 Agent 需要配置 LLM 提供商的 API 密钥、工具权限边界、安全等级、自主性级别等多个参数。agent-runtime.yaml 配置文件的语法和选项对新用户来说不够直观,配置错误会导致 Agent 无法正常工作或出现安全问题。
  • MCP Server 构建与部署 — MCP Server 是一个 Node.js 应用,需要 npm 构建。在不同系统上,Node.js 版本管理(nvm、fnm、volta)、npm 包安装(特别是包含原生 addon 的包)经常出现问题。MCP Server 还需要正确的文件系统权限才能执行工具操作。
  • 跨平台差异 — OpenClaw 支持 macOS、Linux 和 Windows,但每个平台的系统调用、文件路径格式、权限模型都不同。Windows 上的 PowerShell 和 POSIX shell 的差异,以及 WSL2 的额外复杂性,使得跨平台部署成为一个突出的难题。

AIMA 如何解决这些问题

AIMA 本身就是基于 OpenClaw 技术栈构建的,对 OpenClaw 的安装有着最深刻的理解。AIMA 的 AI Agent 能够精确处理 OpenClaw 多服务架构的每一个安装环节。

  • 全栈自动部署 — 自动安装和配置 PostgreSQL、Platform、Worker、MCP Server 全部组件,处理好服务间的认证 Token 和网络连接。
  • 数据库开箱即用 — 自动安装 PostgreSQL(或使用 Docker 运行),创建数据库和用户,执行 Schema 迁移,配置连接字符串。
  • OS 感知安装 — 根据 macOS、Linux、Windows 的具体版本自动选择安装方式、配置文件路径和启动脚本,消除跨平台部署的差异问题。
  • 端到端健康验证 — 安装完成后逐一验证每个服务的运行状态,确认 Platform API 可访问、Worker 已连接、MCP Server 响应正常。

通过 AIMA 安装 OpenClaw:分步指南

第 1 步:打开终端

在 macOS 上打开 Terminal.app 或 iTerm2;在 Linux 上打开你常用的终端模拟器;在 Windows 上以管理员权限打开 PowerShell。

第 2 步:运行安装命令

macOS 和 Linux 用户运行以下命令:

curl -sL https://aimaserver.com/install/openclaw | bash

Windows 用户在 PowerShell 中运行:

iex (irm https://aimaserver.com/install/openclaw)

第 3 步:输入邀请码

命令执行后,AIMA 客户端会启动并提示你输入邀请码。邀请码用于将你的设备与 AIMA 平台连接,激活 AI Agent 安装能力。

第 4 步:AIMA 自动完成安装

AIMA 会自动检测你的系统环境,安装 PostgreSQL 和 Node.js(如果还没有),部署 OpenClaw 的全部服务组件,配置服务间通信,并执行数据库迁移。整个过程无需手动干预。

第 5 步:开始使用 OpenClaw

安装完成后,AIMA 会提供 OpenClaw Platform 的访问地址,通常是 http://localhost:8000。你可以通过 Dashboard 查看系统状态,通过 CLI 连接设备,或者开始配置你的第一个 AI Agent。

系统要求

项目 要求
操作系统macOS 12+、Ubuntu 22.04/24.04、Windows 10/11
内存 (RAM)最低 4 GB,推荐 8 GB 以上
磁盘空间至少 5 GB(含数据库、Node.js 依赖和 Python 环境)
CPUx86_64 或 ARM64(Apple Silicon 原生支持)
网络需要互联网连接以下载依赖和连接 LLM API

AIMA 自动处理的常见问题

  • PostgreSQL 安装与配置 — 自动安装数据库、创建用户和数据库、执行 Schema 迁移,支持 Docker 运行或系统级安装两种方式。
  • Node.js 版本不兼容 — 自动安装合适版本的 Node.js 并在正确环境下构建 MCP Server。
  • 服务间认证失败 — 自动生成和配置内部 Token,确保 Platform、Worker、MCP Server 之间的认证链路畅通。
  • 端口冲突 — 自动检测并解决 8000、3000 等常用端口的占用问题。
  • Python 虚拟环境问题 — 自动创建隔离的 Python 环境,安装正确版本的 Platform 依赖。

常见问题

OpenClaw 和 AIMA 是什么关系?

AIMA 是基于 OpenClaw 技术栈构建的 AI 驱动安装平台。OpenClaw 是底层的 AI Agent 框架,AIMA 在其基础上实现了自动化的开源工具安装能力。通过 AIMA 安装 OpenClaw,本质上是用 OpenClaw 的能力来部署 OpenClaw 本身——这也是对该框架能力的最好验证。

OpenClaw 需要 API 密钥才能运行吗?

OpenClaw 的 Platform 和 Worker 本身不需要外部 API 密钥即可运行。但如果你要配置 AI Agent 使用云端 LLM(如 Claude、GPT),则需要提供对应的 API 密钥。你也可以通过 Ollama 连接本地模型,这种方式不需要任何外部 API 密钥。

我可以在 OpenClaw 上构建自己的 AI Agent 吗?

当然可以。OpenClaw 本质上是一个 Agent 开发框架。安装完成后,你可以通过编写 agent-runtime.yaml 来定义 Agent 的行为、工具权限和安全边界,然后通过 Platform API 部署和管理你的 Agent。OpenClaw 的 MCP Server 架构让你可以轻松扩展 Agent 可使用的工具集。

OpenClaw 安装后的数据存储在哪里?

所有数据存储在你本地机器的 PostgreSQL 数据库中,包括任务记录、设备信息、运行日志等。工作空间文件存储在本地磁盘上。你对所有数据拥有完全控制权,可以随时备份、迁移或删除。

OpenClaw 与其他 Agent 框架(如 LangChain、AutoGPT)有什么区别?

OpenClaw 的核心差异在于它是一个面向操作执行的 Agent 框架,而非仅限于对话或推理。它内置了设备管理、任务分发、多 OS 支持、安全审计等生产级能力。MCP 协议提供了标准化的工具访问接口,使 Agent 能以安全可控的方式与操作系统和外部服务交互。LangChain 更侧重于 LLM 应用的 Chain 编排,AutoGPT 更侧重于自主推理循环。

你可能还想安装

准备好安装 OpenClaw 了吗?

一条命令,AIMA 帮你部署全部服务组件。