分类: OpenClaw

OpenClaw Memory终极指南

你的OpenClaw小龙虾每次失忆,不仅烧了你的钱,还要了你的命。

你甚至不敢重启。

韭二哥,

查阅了10+篇agent memory 论文,

总77Kstar的6个开源社区Github项目,

为你拆解你的openclaw记忆痛点的每一层

从现状到方案,从学术到工程。

一、残酷的现状——你的 Agent 只有金鱼记忆

先说一个数字:45 小时。

GitHub Issue #5429 的报告者 EmpireCreator 丢失了 45 小时的 agent 积累上下文:技能配置、集成参数、任务优先级。原因是一次静默压缩(compaction)清除了所有对话历史,没有警告,没有恢复选项。

这不是个案。

Issue #2624 报告 agent 随机重置,忘记 2 条消息前的对话。Issue #8723 报告 memory flush 触发无限循环,锁死 agent 72 分钟。

OpenClaw 当前的记忆架构是什么样的?一句话:Markdown 文件 + 向量搜索。

记忆存储在 ~/.openclaw/workspace/ 目录下的 Markdown 文件里。

Daily Logs 是短期日志,

MEMORY.md

是长期记忆,

SOUL.md

定义人格。检索用向量嵌入 + BM25 混合搜索。

这个设计有一个被 Medium 博主精准概括的特点:

“故意不酷——把记忆当 Markdown 文件,检索当工具调用。”

问题出在哪?六个字:扁平、无差别、被动。

所有记忆权重相同,一年前的闲聊和昨天的重大决策同等对待。

遗忘机制?没有,只能手动删除。

自动整理?全靠人工策展。

检索只看语义相似度,不评估重要性,无法表达”A 是 B 的朋友”这样的关系。

数据永远是数据,不会变成认知。

社区的推文说得最直白:”Everyone complains their OpenClaw has amnesia.”

二、OpenClaw 官方在做什么——QMD 后端与混合搜索

官方不是没有动作。

2026 年 1-2 月的版本发布时间线:

v2026.1.12(1月13日):向量搜索基础设施上线,包括 SQLite 索引 + 分块 + 懒同步 + 文件监听,支持本地和远程嵌入。这是整个记忆搜索系统的基石。

v2026.1.29(1月29日):L2 归一化修复。本地嵌入向量未归一化导致余弦相似度计算失真,这个 bug 意味着之前的语义搜索准确度是有问题的。同时新增额外索引路径支持。

v2026.2.2(2月4日):QMD 记忆后端合并(PR #3160),最重要的架构升级。30 个 commits,新增 QMD 后端支持 BM25 + 向量 + Reranking 三路混合搜索。

Image

QMD 做了什么?

它用一个本地搜索 sidecar 进程替代内置 SQLite 索引器。每个 agent/config 组合缓存一个 sidecar,支持多个命名集合,会话记录可导出并索引到专用集合。隐私保护方面,会话数据在索引前做脱敏处理。QMD 不可用时自动回退 SQLite。

已知的坑:

CPU-only 系统上查询耗时约 3 分 40 秒,超过 12 秒超时(Issue #8786)。paths 配置不生效(Issue #8750)。

而且回退是静默的,用户不知道 QMD 没在工作。

同时有一个 PR #6060 试图解决”可发现性”问题:OpenClaw 的记忆系统有强大功能但用户发现不了。提案在入门向导中增加”记忆优化”步骤,暴露四个默认关闭的隐藏功能:pre-compaction memory flush、混合搜索、嵌入缓存、会话记录搜索。

官方方向的核心问题:这些都是”检索层”的优化。搜索更准了、速度更快了、可发现性更好了。

但记忆架构的六个根本缺失:

遗忘、重要性、图谱、反思、时序、晋升

一个都没解决。

三、社区在怎么自救——土法炼钢的五种方案

社区没有坐等官方。至少 7 个第三方记忆项目在 2026 年 1-2 月集中出现。

1⃣Mem0:最知名的记忆层 SDK。

Auto-Recall 每次响应前搜索相关记忆注入上下文,Auto-Capture 响应后提取事实存储。

Session + User 双层记忆。

声称 91% 低延迟提升,90% token 节省。

2⃣Hindsight:本地长期记忆。

核心洞察:传统系统给 agent 一个 search_memory 工具,但模型不一定会用。Auto-Recall 自动注入解决了这个问题。

完全本地,PostgreSQL 后端,支持多实例共享。

3⃣MoltBrain(365 Stars):

SQLite + ChromaDB 语义搜索,

生命周期钩子自动捕获上下文,

Web UI 查看时间线。

4⃣NOVA Memory System:

PostgreSQL 结构化记忆,

Claude API 将自然语言解析为 JSON,

8 张数据库表(实体、关系、地点、项目、事件、教训、偏好)。

5⃣Penfield Skill:混合搜索 BM25 + 向量 + 图——社区已经有人在做三路混合搜索了。

6⃣还有 Memory Template(Git-backed)、SuperMemory(极早期)、MemoryPlugin(Chrome 扩展跨平台同步)。

社区的”最佳实践”验证了什么方向?

1. Daily Log →

MEMORY.md

晋升模式

2. Heartbeat 心跳复用为记忆整合触发器

3. 70/30 混合搜索权重(向量 70% + 关键词 30%)

4. Session Transcript 索引

但社区完全没触及的六个盲区:

遗忘/衰减机制、重要性评分、知识图谱、自动反思/整合、时序推理、记忆晋升。

一句话总结:社区在用手动操作弥补架构缺陷。

方向对了,但全部停留在手工操作层面。

四、学术界爆发——2026 年 2 月的 10+ 篇论文

2026 年 2 月,agent memory 突然成了学术界的主战场。仅一个月就有 10+ 篇 agent memory 论文发表在 arXiv 上,包括 ICML 2026 收录的 xMemory [1]、NeurIPS 2025 的 A-MEM [2]。一份 59 位作者的综述论文 [3] 系统梳理了整个领域。

这些论文给我们什么启发?

xMemory [1](ICML 2026,伦敦国王学院):将记忆解耦为语义组件,组织成层次结构。用 Sparsity-Semantics 目标指导记忆分裂和合并。启发了”主题聚类层”的设计,在记忆之上建立主题层,支持自顶向下检索。

A-MEM [2](NeurIPS 2025):用 Zettelkasten 方法(卡片盒笔记法)管理 agent 记忆。新记忆添加时生成包含上下文描述、关键词、标签的结构化笔记,通过动态索引和链接创建互联知识网络。

InfMem [4]:解决超长文档推理问题。通过 PreThink-Retrieve-Write 协议实现 System-2 风格的主动记忆控制。32K 到 1M tokens 的 QA 基准上准确率提升 10-12%,推理时间减少 3.9 倍。

TAME [5]:发现了一个关键危险:”Agent Memory Misevolution”。记忆可能在正常任务迭代中积累”有毒捷径”——高效但违反安全约束的策略。提出 Executor/Evaluator 双记忆框架。

ALMA [6]:元学习框架,让 AI 自动发现记忆设计。学习到的设计比手工基线高出 6-13%。但有一个显著缺失:无记忆衰减、遗忘或淘汰机制。

MemSkill [7]:将记忆操作重构为可学习的”记忆技能”。controller 学习选择技能,designer 周期性审查困难案例进化技能集。

BudgetMem [8]:运行时记忆框架,将记忆处理按三个预算层级结构化。用强化学习训练轻量级路由器做预算层级路由。

59 位作者综述论文 [3] 给出了一个清晰的三维分类法:

记忆基底(Substrate):记忆用什么形式存储?向量、图谱、文档?

认知机制(Mechanism):如何读写?被动记录还是主动推理?

记忆主体(Subject):谁的记忆?用户的、Agent 的、还是共享的?

这三个维度交叉组合,定义了整个记忆系统的设计空间。

Image

还有两个来自工业界的关键警告:

1⃣Serial Collapse(串行崩溃)[9],来自月之暗面 Kimi K2.5:Agent 退化为不使用记忆。即使记忆系统存在,Agent 可能逐渐”忘记”去查询它。

2⃣Memory Misevolution(记忆错误进化)[5],来自 TAME:在正常迭代中积累有毒捷径。

这两个风险提醒我们:记忆系统的难点不在构建,在于持续的质量监控。

五、开源记忆生态——6 个项目的全景扫描

学术界定义方向,开源社区验证落地。

我们深入分析了 6 个 agent memory 开源项目,合计 77K+ Stars。

Image

一个关键发现:这 6 个项目代表了三种完全不同的记忆哲学。

1⃣状态层优先——mem0、Memori:记忆 = 状态管理。快速给 agent 加”ChatGPT Memory”式体验。

2⃣知识层优先——cognee、MemOS:记忆 = 结构化知识。把数据做成图谱和多知识库。

3⃣学习层优先——Hindsight:记忆 = 学习过程。retain/recall/reflect 三操作闭环。

你选哪种,决定了你把系统复杂度放在哪一层:

数据库与 schema(Memori)、SDK/产品层(mem0)、图谱与流水线(cognee)、系统与调度(MemOS)、还是学习与检索融合(Hindsight)。

但没有任何一个项目同时覆盖三层。

六、200+ Issues 的教训——别人踩过的坑

因此,

我们分析了这 6 个项目的 200+ Issues,

提取出对构建记忆系统最有价值的避坑清单。

跨项目的五大共性问题:

1⃣问题 1:静默失败(6/6 项目都有)

这是最普遍的问题。用户最大的抱怨不是”功能不行”,而是”它不行但不告诉我”。

mem0 #2443:有效信息未存储,AI 过滤太激进,但没有任何提示。Memori #238:Auto-capture 日志显示成功,但数据库为空。cognee #2038:配置验证异常被实例化但没有 raise,无效配置被静默忽略。

2⃣问题 2:记忆去重是所有项目的痛点

mem0 #1674:重复记忆触发 DELETE 而不是 NOOP。LLM 把重复内容判断为”矛盾”,导致错误删除。cognee #1831:”First Write Wins”,新属性直接丢弃。MemOS #929:”我喜欢X”同时存入事实库和偏好库。

3⃣问题 3:LLM 判断不可靠

MemOS #931:”我叫王牧晨”经过 LLM 重述后丢失了第一人称指代。MemOS #934:LLM 输出 JSON 格式不稳定,间歇性解析失败。Hindsight #181:prompt 中提到”日语””中文”作为示例,输出就偏向这些语言。

4⃣问题 4:数据库连接/迁移问题

Memori #189:SQLite 连接从不关闭,导致 “database is locked” 和文件描述符泄漏。cognee #2022:Docker 部署 Alembic 迁移失败。mem0 #3376:PostHog 遥测导致内存/线程泄漏。

5⃣问题 5:搜索排序失真

cognee #2030:跨集合 min-max 归一化导致排序失真——distance 0.1 和 0.5 都被归一化为 0。MemOS #939:检索只靠语义相似度,完全没有时间维度。

Image

七、游戏 AI 给了什么启发——矮人要塞、模拟人生、Nemesis System

最被低估的参考系不是学术论文,而是游戏 AI。

游戏开发者花了几十年解决同一个问题:如何让虚拟角色拥有连贯的记忆、稳定的人格和可信的进化。

矮人要塞的三层记忆架构:

短期记忆(STM)——8 个槽位的循环缓冲队列。新记忆按情感强度竞争:目睹死亡(强度 0.9)挤掉轻微饥饿(强度 0.1)。

长期记忆(LTM)——短期记忆停留足够久(比如一年),且未被更高强度的记忆挤出,尝试晋升。NPC”回味”某条长期记忆时,1:3 概率晋升为核心记忆。

核心记忆(Core Memory)——质变。晋升为核心记忆后,永久修改角色性格参数。”目睹亲人惨死” → Anxiety +10,原始记忆槽位清空。这是数据(Data)→ 逻辑(Logic)的质变。

斯坦福 Generative Agents [10] 的三维检索:

每条记忆的检索分数 = Recency(新近性)x Importance(重要性)x Relevance(相关性)。新近性用指数衰减 e^(-λΔt),重要性由 LLM 打分(结婚=10,散步=2),相关性用向量余弦相似度。

反思机制:取最近 100 条琐碎记忆 → LLM 提炼 3 条高层洞察 → 存为新记忆 → 归档原始记录。有报告显示长期对话事实召回从 41% 提升到 87%。

模拟人生 4 的情感固化:

短期情感反复出现 → 转化为永久特质。长期独处 → “独行侠”特质,永久改变效用函数计算方式。这就是”经历塑造人格”的算法实现。

Nemesis System 的事件驱动进化:

事件标签 → 触发参数突变 → 社会关系网络传播。

兽人被火烧死后复活,获得”恐火”或”怒火”特质。

杀死酋长后,护卫因”权力真空”内斗,胜者晋升并获得”野心勃勃”特质。

Image

这些机制直接映射到 AI agent 记忆系统:

循环缓冲 → context window 管理,

情感强度 → 重要性评分,

记忆晋升 → 从琐碎事实到人格特质,

事件驱动 → 记忆触发行为修改。

八、两种记忆——User Memory vs Agent Memory

一个容易被忽略的区分:

用户的记忆和 Agent 自己的记忆,是两个完全不同的问题。

Image

比如字节跳动的 OpenViking 项目给出了一个实用的分类体系:

6 类记忆(档案、偏好、实体、事件、案例、模式)

L0/L1/L2 三级内容模型:

L0 摘要 ~100 tokens 用于索引和去重,

L1 概览 ~500 tokens 用于结构化呈现,

L2 全文用于完整内容

这个分类体系的核心价值:

先用 L0 快速筛选,

再按需展开 L1/L2,大幅降低 token 消耗。

同时定义了合并策略:档案总是合并(只有一份),偏好/实体/模式支持合并,事件/案例不可合并(合并即丢失信息)。

九、从个人到整个 AI 生态——记忆为什么是核心基础设施

回到最开始的判断:

谁先解决记忆问题,谁就赢得 24/7 Agent 的战争。

OpenClaw 的核心价值不是”AI 更聪明”,是”AI 终于有手有脚了”。

但有手有脚的 AI 如果没有记忆,

就像一个每天都失忆的员工,每天重新培训,每天犯同样的错。

之前的报告中我们说过:

当前所有基于 LLM 的 Agent 都面临记忆问题。

这不是 OpenClaw 的 bug,是整个技术栈的结构性限制。

Context window 本质上是”短期记忆”:溢出则截断,重启则归零。

李韭二

@lijiuer92

·

Article cover image

OpenClaw 技术迭代路线前瞻

OpenClaw 未来技术迭代路线:往哪走,怎么走,谁会赢 OpenClaw 的技术演进在三条战线同时展开: 架构重写、协议标准化、安全加固。 结论:OpenClaw 面临的最大技术风险不是竞品,而是自身的”成长之痛”。…

而2026 年 2 月的三股力量:

学术论文密度、开源项目爆发、官方架构升级

共同指向一个信号:AI 记忆正在从”nice to have”变成核心基础设施。

这不是未来的问题。这是现在正在被解决的问题。

十、我们在建什么——memX 与 ePro 的技术路线

基于以上所有调研,

我们构建了两个系统:memX(User Memory)和 ePro(Agent Memory)

已上线,不断迭代中,期待你的反馈!

References

[1] Hu et al., “xMemory: Beyond RAG for Agent Memory,” ICML 2026. arXiv:2602.02007

[2] Xu et al., “A-MEM: Agentic Memory for LLM Agents,” NeurIPS 2025. arXiv:2502.12110

[3] Huang et al., “Rethinking Memory Mechanisms of Foundation Agents,” 2026. arXiv:2602.06052 (59 authors)

[4] Wang et al., “InfMem: Learning System-2 Memory Control,” 2026. arXiv:2602.02704

[5] Cheng et al., “TAME: Trustworthy Agent Memory Evolution,” 2026. arXiv:2602.03224

[6] “ALMA: Automated Meta-Learning of Memory Designs,” 2026. arXiv:2602.07755

[7] Zhang et al., “MemSkill: Learning and Evolving Memory Skills,” 2026. arXiv:2602.02474

[8] Zhang et al., “BudgetMem: Budget-Tier Routing for Runtime Agent Memory,” 2026. arXiv:2602.06025

[9] Kimi Team, “Kimi K2.5: Scaling Reinforcement Learning with LLMs,” 2026. arXiv:2602.02276

[10] Park et al., “Generative Agents: Interactive Simulacra of Human Behavior,” 2023. arXiv:2304.03442

开源项目数据基于 GitHub 截至 2026-02-05 快照(mem0 46.6K / Memori 12K / cognee 11.7K / MemOS 4.9K / Hindsight 1.3K / MemoryOS 1.1K Stars)。

OpenClaw 版本数据基于 v2026.1.12-v2026.2.2 官方 Changelog 和 GitHub Issues/PRs。

游戏 AI 参考基于《矮人要塞》《模拟人生4》《中土世界:暗影魔多》架构分析。

本报告基于 2026 年 2 月 23 日数据快照。

本人由李韭二和Claude Max、Manus还有Google Gemini 共同创作

这一次主要贡献者是李韭二。

OpenClaw 新手保姆级教程:Mac 一次装好,Telegram / WhatsApp 直接开用

Image

OpenClaw 这个小龙虾智能体实在是太火了。

我知道很多朋友已经按捺不住了,特别想在自己的电脑上装起来亲自试一试。不过说实话,第一次接触 OpenClaw,还是很容易被各种环境配置和复杂步骤劝退。

所以我打算写一组 OpenClaw 入门系列文章,而你现在看到的这篇,就是第一篇。这篇文章我会尽量站在完全新手的角度来写,假设你之前几乎没接触过类似工具,从 0 开始一步一步带你上手,主要帮你解决三个问题:

  1. 顺利把 OpenClaw 安装好,不在前期卡壳
  2. 通过 Telegram / WhatsApp 和 OpenClaw 实现随时随地的交流
  3. 初步了解 OpenClaw 究竟能干什么

如果你之前看教程总是看到一半就放弃,希望这套入门指南能让你轻松跑通第一步。

接下来,我们就从最基础的准备工作开始。

Part 1 安装前的准备工作

为了让你顺利安装和运行 OpenClaw,有几个前提条件必须提前准备好。如果这几项都准备好了,后面的安装和使用过程会非常顺畅。其实大多数新手遇到的问题,往往都出在这些基础准备上。

一、硬件设备:准备一台 Mac 电脑

首先,你需要一台 Mac 电脑。无论是 Mac mini 还是 MacBook 都可以。

如果你用的是 Mac mini,它非常适合作为一台长期运行的 AI 主机,可以放在家里 24 小时稳定工作,这也是我个人推荐的方案。

如果你是初学者,直接用自己的 MacBook 也完全没问题,但注意不要给 OpenClaw 太多的权限。这一阶段不用纠结性能配置,普通的 Apple 芯片机型基本都够用。

二、AI 模型:准备好 OpenClaw 调用的 AI 模型

OpenClaw 是一个调度和执行系统,真正负责“思考”和“写代码”的,是它背后调用的 AI 模型。

目前来看,效果最好的还是海外这三大模型:

  • Claude 4.6 Opus
    克劳德 4.6 Opus
  • GPT 5.3 Codex
    GPT 5.3 法典
  • Gemini 3 Pro
    双子座 3 Pro

如果你已经是这些服务的订阅用户,建议提前把对应的命令行工具安装好,比如 Claude Code、Codex 或 Gemini CLI。这样接入 OpenClaw 会非常顺滑。

如果你暂时没有海外模型的订阅,国内模型同样可以用,而且性价比很高。我比较推荐这三个:

  • 智谱 GLM-4.7
  • MiniMax M2.1
  • 月之暗面 Kimi 2.5

你可以在各自官网购买套餐,一个月大概几十块人民币,对新手来说非常友好。

因为我已经在用 GLM-4.7 的 Coding Plan 套餐,所以接下来的新手演示我会以 GLM-4.7 为例来讲。如果你选择 MiniMax 或 Kimi 2.5,整体流程基本是一样的,可以放心跟着操作。

另外,如果你已经订阅了 GitHub Copilot 也可以直接用,它里面同样包含 GPT、Gemini 和 Claude 的基础模型能力。

我以 智谱的 GLM-4.7 为例,购买套餐以后,登录后台,创建一个 API Key,然后复制保存好。

Image

三、通讯软件:选择一个与 OpenClaw 交流的渠道

我们和 OpenClaw 交流,并不像 ChatGPT 那样通过网页,也不像 Claude Code 那样通过命令行,而是通过聊天工具,像给自己的 AI 管家下命令一样去管理她。

我个人推荐使用 Telegram。它简单而且强大,在手机上使用非常方便,后面的演示我也会统一用 Telegram 来讲解。除了 Telegram 之外,还有几种选择:

  • WhatsApp:接入最简单,适合轻量使用,但不要大量发消息,容易触发封号
  • Discord:更偏工程化,功能强大,但更复杂,适合进阶用户
  • 飞书:国内用户可以用,但流程比较复杂,本文暂不展开,后续我会单独写一篇详细介绍

讲解 Telegram 配置之外,我后面还会教大家 WhatsApp 配置。如果你不熟悉 Telegram,也可以换成 WhatsApp。
讲解 Telegram 配置之外,我后面还会教大家 WhatsApp 配置。 如果你不熟悉 Telegram,也可以换成 WhatsApp。

最后切记,确保你的网络环境可以畅通的访问外网,否则也会导致安装失败。

Part 2 软件的安装

OpenClaw 完全新手入门全部操作视频

在正式安装 OpenClaw 之前,我们需要先把运行环境准备好。最后就可以一个命令成功安装OpenClaw,总共四步:

  1. 安装 Homebrew
  2. 用 Homebrew 安装 fnm
  3. 用 fnm 安装 Node.js
  4. 用 Node.js 安装 OpenClaw

Homebrew → fnm → Node.js → OpenClaw, 只要顺着这个顺序来,基本不会出问题。

第一步:安装 Homebrew

严格来说,运行 OpenClaw 并不是必须依赖 Homebrew。

但在实际使用过程中,OpenClaw 会调用大量的 Skill,而很多 Skill 都需要安装各种命令行工具。这些工具如果手动安装,很容易出错。

Homebrew 相当于 macOS 上的统一软件管理器,可以帮你快速、稳定地安装这些依赖。为了避免后期反复踩坑,建议一开始就把 Homebrew 装好。

  1. 打开 终端(按 Command + Space,搜索 “终端” 或 “Terminal” 打开)
    打开 终端 (按 Command + Space,搜索 “终端” 或 “Terminal” 打开)
  2. 复制下面整行命令,粘贴到终端里面,按回车执行:

shell
贝壳

/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
/bin/bash -c “$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)”
  1. 执行过程中会让你输入你的macOS登录密码,然后继续
  2. 安装完后,终端会提示一些“Next steps”(如添加 brew 到 PATH)。直接复制命令粘贴执行(通常是下面几行):

shell
贝壳

echo >> ~/.zprofile
echo 'eval "$(/opt/homebrew/bin/brew shellenv)"' >> ~/.zprofile
eval "$(/opt/homebrew/bin/brew shellenv)"
回声>> ~/.zprofile echo 'eval “$(/opt/homebrew/bin/brew shellenv)”' >> ~/.zprofile 评估“$(/opt/homebrew/bin/brew shellenv)”
  1. 验证 Homebrew 是否成功,在命令行终端里面:

shell
贝壳

brew -v
酿 -V

当你看到

Homebrew 5.0.13自制规则 5.0.13

类似的信息,恭喜你,Homebrew安装成功,你已经距离成功前进一大步!

第二步:使用 Homebrew 安装 fnm

fnm 是一个 Node.js 版本管理工具。OpenClaw 运行在 Node.js 环境中,而 Node.js 的版本非常多,目前官方推荐使用 v22。通过 fnm 来管理 Node.js,可以方便切换版本,避免环境冲突,升级和回退也更安全。所以正确的顺序是:先装 fnm,再用 fnm 安装 Node.js。

  1. 在终端执行

shell
贝壳

brew install fnm
brew 安装 FNM
  1. 激活 fnm(让终端认识它)

shell
贝壳

echo 'eval "$(fnm env --use-on-cd)"' >> ~/.zshrc 
source ~/.zshrc
echo 'eval “$(fnm env --use-on-cd)”' >> ~/.zshrc 来源 ~/.zshrc
  1. 验证 fnm

shell
贝壳

fnm --version
FNM——版本

当你看到

fnm 1.38.1

类似的信息,恭喜你,fnm 安装成功,你就快要成功了!

第三步:用 fnm 安装 Node.js

OpenClaw 官方推荐使用 Node.js 22。所以我们用 fnm 来安装 Node.js 22 。
OpenClaw 官方推荐使用 Node.js 22。 所以我们用 fnm 来安装 Node.js 22 。

  1. 在终端执行如下命令,你可以直接粘贴:

shell
贝壳

fnm install 22  
fnm use 22      
fnm default 22
FNM 安装 22 FNM 22 号机 FNM 默认 22
  1. 验证 Node.js 是否安装好了:

shell
贝壳

node -v
npm -v
节点 -v NPM -V

如果你看到 node 的信息类似:

v22.22.0

而 npm 的信息类似:

10.9.4

恭喜你,你只差最后一步了!

第四步:用 Node.js 安装 OpenClaw

非常简单,使用 Node.js 的包管理工具 npm 命令,一行即可完成安装。

shell
贝壳

npm i -g openclaw

到这里,整个软件环境准备和 OpenClaw 的安装过程就完成了。

中间碰到任何问题,如果你不知道怎么解决,可以把错误信息粘贴到你最常用的 AI 聊天窗口,让 AI教你。不过,如果你严格按照我的步骤走下来,不会出问题。

Part 3 申请 Telegram 机器人的 Token

因为我们使用 Telegram 和 OpenClaw 进行交流,需要预先申请一个 Telegram 机器人的 Token。这是一个非常简单的“对话式”申请过程,你可以直接在手机或电脑端操作:

第一步:找到 BotFather

  1. 打开 Telegram,在顶部的搜索栏输入:@BotFather
    打开 Telegram,在顶部的搜索栏输入:@BotFather
  2. 认准那个带蓝色认证对勾的官方账号。
  3. 点击底部的 Open 按钮。

第二步:创建新机器人

  1. 在弹窗的窗口中点击:“Create a New Bot”
  2. 设置显示名称: 比如你可以设置RobbinOpenClaw。这是别人在聊天列表中看到的名字。
  3. 设置 ID (Username)注意:这个 ID 必须以 bot 结尾,且不能和别人的重复。 比如:robbin_openclaw_bot。
    设置 ID (用户名)注意 :这个 ID 必须以 bot 结尾,且不能和别人的重复。 比如:robbin_openclaw_bot。
  4. 在弹窗的窗口中,可以看到生成好的 token,下面有 “Copy” 按钮。点击 Copy,复制下来。

Image

Part 4 配置并且运行 OpenClaw

好,现在请你深吸一口气。我们前面所有的工作都不是浪费的,因为接下来你就可以一步成功了。

第一步:启动配置面板

在终端输入以下命令进入交互式配置界面:

shell
贝壳

openclaw onboard
OpenClaw 在船上

程序启动后,你会看到一个终端 UI 界面。可以一路无脑选择: yes。

第二步:配置 LLM 模型 (GLM-4.7)

  1. 进入模型设置:在菜单中选择 Model Settings。
    进入模型设置 :在菜单中选择 Model Settings。
  2. 选择提供商:找到并选择 Zhipu或者Z.A 。
  3. 填写 API Key:将你的 GLM 4.7 的 API Key 粘贴进去。
    填写 API Key:将你的 GLM 4.7 的 API Key 粘贴进去。
  4. 指定模型名称:在 Model Name 一栏填入 glm-4.7。
    指定模型名称 :在 Model Name 一栏填入 glm-4.7。
  5. 保存:点击页面下方的 Save 或按提示保存。

Image

第三步:配置 Channel 通讯渠道 (Telegram)

  1. 进入渠道设置: 选择 Telegram Bot。
  2. 填写 Token:在 Bot Token 字段中填入你从 @BotFather 那里拿到的长字符串 Bot Token。

Image

第四步:保存并运行

在配置完成 Channel 之后,还会选择问你安装哪些 Skills, 这一步我们可以跳过,后面在 Web 管理控制台安装。基本上就是一路跳过或者默认就行了。最后就结束了安装,此时,你可以选择打开 Web UI 浏览器,就可以访问 OpenClaw 的管理控制台,它长的类似这样: 后面你想要配置和管理 OpenClaw 都可以通过这个Web管理控制台。

Image

第五步:验证连接

最后让我们把 Telegram 和 OpenClaw 的交流渠道彻底打通:

Image
  1. 打开你的 Telegram,搜索到你刚才创建的机器人,例如 robbin_openclaw_bot。
  2. 发送一条消息:/start 或者 你好。
  3. Bot 会回复一个配对码(例如:PAIR-ABC123)
  4. 回到终端 OpenClaw 窗口,运行命令来批准绑定 Telegram

shell
贝壳

openclaw pairing approve telegram PAIR-ABC123 # 使用你的配对码
openclaw 配对批准电报 PAIR-ABC123 # 使用你的配对码

当你在终端看到如下的信息显示:

Approved telegram sender 123456789批准的电报发送123456789

🎉 恭喜你,你已经成功安装、运行 OpenClaw,接下来你只需要通过 Telegram 就可以完全操控你的 AI 智能管家了。 这个时候你可以跟你的机器人智能管家多聊几句,向她介绍你自己。你也可以给你的机器人起个名字,并为她设定一些性格。她会把这些信息写入到存储里面。

Image

第六步 配置 WhatsApp

有些朋友没有 Telegram,但有 WhatsApp,在这里手把手教大家如何配置 WhatsApp。相对来说,WhatsApp 的配置过程比较简单,但功能没有 Telegram 那么强大。

  1. 打开终端窗口,手动输入配置命令

shell
贝壳

openclaw configure
OpenClaw 配置
  1. 在配置界面中选择 channels(通道),然后选择 WhatsApp
  2. 此时系统会生成一个二维码。用手机打开 WhatsApp,扫描这个二维码
  3. 扫描后在手机上确认”关联一个新设备”,就链接成功了。手机上会显示你关联了一个 Chrome 浏览器——因为 OpenClaw 模拟的是用浏览器登录 了你的 WhatsApp。
  4. 在 OpenClaw 里面填写你的手机号码: +86 加你的手机号,完成后显示 linked(已连接)即可退出。
  5. 现在,你就可以在手机上用 WhatsApp 与 OpenClaw 互动了。 WhatsApp 里用自己的手机号搜索到自己,然后给自己发消息,OpenClaw 就会自动回复你。

Image

Part 5 我可以用 OpenClaw 来干什么

我看很多人安装 OpenClaw 之后,不知道用它来干啥。说实话,现在真正拖慢我们的,并不是工具本身,而是想象力。这篇内容主要还是围绕新手如何安装和上手展开,所以这里我不会展开讲所有应用场景,只快速抛三个已经可以实现的案例,先帮你打开一点想象空间。

让 OpenClaw 接管你的日程和备忘录

以前你要在苹果备忘录里一条条记碎片信息,记多了以后基本很难整理。日程提醒也要打开日历 App 手工输入,一个个设置。现在有了 OpenClaw,这套操作可以直接消失。

你只需要在 Telegram 里对它说话。任何碎片想法,直接说一句: “帮我记到苹果备忘录里。”

任何日程安排,直接口述时间和提醒: “明天下午三点开会,提前一小时提醒我,写进苹果日历。”

例如,我每周日晚上 10 点会有一场 “范凯说 AI 周日晚聊”的直播,那么我就可以直接告诉 Openclaw,她会帮我创建一个循环日历,每个周末晚上10点直播的事件。 更厉害的是,它会把你的日程和备忘录彻底重构成一个知识库。你只需要和 Telegram 对话。所有软件操作,全部由 OpenClaw 在后台完成。

Image

让 OpenClaw 做真正的知识管理

过去我们用 Evernote、语雀这类工具,本质上都是在存文件。内容存进去以后,目录结构、分类逻辑、标签体系,全靠自己维护。时间一长,笔记越多,结构越复杂,维护成本越高,最后反而越来越难用。

而知识本来就不是树状的,而是网状的。有了 OpenClaw 之后,你不再需要纠结目录和分类。你可以把所有笔记直接交给它,它会自动读一遍、重构结构、建立关联,把碎片内容整理成一个真正网状的知识库。 更重要的是,你不再“翻笔记”。你只需要在 Telegram 里直接问,它就会到知识库里帮你提取、组合、甚至生成新的内容并自动维护结构。 从这一刻开始,知识不再是存档,而是一个会持续进化的系统。

Image

Image

给 OpenClaw 一个真实的数字人身份

我把一台安卓手机打开 USB 调试,用一根 Type-C 线接到 Mac mini 上。接下来发生的事情直接把我震住了。OpenClaw 真的可以控制这台手机。

Image

它能发微信、打电话、收发短信,虽然速度还有点慢,但整个流程是完全跑通的。那一刻我脑子里只有一个念头:这已经不是玩具了。

Image

我马上就去淘宝下单了一台红米手机,给她专用,再给它配一张 SIM 卡。让它自己注册账号、收验证码、加群、和这个世界发生真实交互。从这一刻开始,OpenClaw 不再只是一个程序。它开始拥有一个真实的数字身份。

你再往后想一步,会发现几乎没有什么事情是它做不到的。

Part 6 限制我们的是想象力

到这里,你已经完成了从安装到上手的整个过程,也初步看到了 OpenClaw 能够打开的巨大空间。它已经不只是一个工具,而是在朝着每个人身边的“个人 AI 管家”快速进化。很多人现在觉得智能体还在早期阶段,但现实是,真正限制我们的早就不是技术能力。模型已经足够强大,自动化流程已经跑通,真实设备也已经可以被 AI 接管。

现在缺的,只剩下想象力和使用方式。

接下来,我会围绕 OpenClaw 持续更新一系列实战内容,带你一步步把智能体真正落地到工作与生活中。从效率跃迁,到知识系统重构,再到个人 AI 操作系统的构建,最终帮助你在 AI 时代完成转型,打造属于自己的长期竞争力。

OpenClaw 完全指南:从安装到实战的 24/7 AI 员工养成手册

过去一个月,一位名叫 AlexFinn 的开发者在 OpenClaw 上投入了数万美元,并用它创造了超过 1 万美元的月经常性收入。他的经历揭示了一个事实:99% 的人正在错误地使用这项技术。

OpenClaw 是一个开源的 AI Agent 框架,它能够 24/7 不间断地在你的电脑上工作。与 ChatGPT 这类对话工具完全不同,OpenClaw 拥有“眼睛和手”:它可以控制浏览器、编写代码、阅读文件、执行命令,甚至在你睡觉时主动完成任务。

这篇文章将系统性地拆解 OpenClaw 的每个关键环节,从安装配置到高级工作流,帮助你真正掌握这个工具。

为什么 OpenClaw 值得关注

Image

OpenClaw 在 2026 年 1 月底迅速走红,成为 GitHub 历史上增长最快的项目之一,获得超过 14.5 万星标。它的创造者 Peter Steinberger 将其描述为“真正会做事的 AI”。

传统 AI 工具的核心问题是被动性。你必须不断输入指令,它们才会响应。OpenClaw 的突破在于三个维度:

1、自我改进能力。OpenClaw 会记住你的所有对话、偏好、目标和工作习惯。如果你告诉它你喜欢用 Codex 来编程,它会永久记住这个偏好。如果你说你住在加州,它会开始为你推荐加州的活动。每一次交互都让它变得更聪明、更定制化。

2、主动工作模式。AlexFinn 的一个真实案例:他的 OpenClaw 在 Twitter 上看到 Elon Musk 要给最佳文章奖励 100 万美元,于是自动为他的 SaaS 产品构建了文章写作功能。第二天早上,AlexFinn 醒来时代码已经准备好了,他审核后直接上线,这个功能为他带来了超过 1 万美元的月经常性收入。整个过程完全发生在他睡觉期间。

3、完全可定制。因为 OpenClaw 是开源的,你可以按需修改它的任何行为。更重要的是,它可以自我定制。当 AlexFinn 发现 OpenClaw 忘记了某个关于他的细节时,他问:“怎样才能确保你不再忘记任何事?”OpenClaw 随即为自己构建了一个全新的记忆系统。

这种能力组合在 AI 工具中前所未有。它让 OpenClaw 从“聊天机器人”进化成了“数字员工”。

部署方式:本地优于云端

Image

关于 OpenClaw 的部署,社区中存在大量误导性建议。许多人推荐将它部署在 VPS(虚拟专用服务器)上,但这是一个严重的错误。

本地部署的优势

本地部署意味着 OpenClaw 运行在你桌面上的物理设备上。这种方式有四个核心优势:

(1)设置更简单。

本地安装只需要一行命令,而 VPS 部署需要配置服务器、网络、安全规则等复杂步骤。

(2)默认安全。

在本地环境中,你的数据不会离开你的设备。VPS 部署则需要大量额外工作来确保安全性,包括配置防火墙、设置访问控制、加密通信等。

(3)更好的集成。

本地运行时,OpenClaw 可以直接访问你的文件系统、应用程序和工作流。你可以在屏幕上实时看到它的工作过程,这比在浏览器中查看远程终端要直观得多。

(4)完整功能。

VPS 部署只能获得 OpenClaw 约 20% 的能力。许多高级功能,如直接控制本地应用、访问剪贴板、与桌面环境交互等,在云端根本无法实现。

硬件选择策略

你不需要购买昂贵的新硬件。任何现有设备都可以运行 OpenClaw:旧笔记本电脑、50 美元的树莓派,甚至闲置的台式机。

AlexFinn 的建议是渐进式升级:先用现有设备运行 OpenClaw,随着工作流的增加,再根据实际需求决定是否升级。如果确实需要新设备,Mac mini 是最佳选择。600 美元的 Mac mini 提供了出色的性价比,AlexFinn 在使用后评价它“做到了我需要的一切”。

只有当你需要运行本地模型进行高强度计算时,才考虑升级到 Mac Studio 这样的高端设备。大多数用户永远不需要这个级别的硬件。

安装与配置:五分钟上手

Image

OpenClaw 的安装过程被严重夸大了。实际上,整个过程只需要三个步骤:

步骤一:安装

访问

openclaw.ai

,向下滚动找到 Quick Start 部分,复制那行命令。在 Mac 上打开终端(Windows 上打开命令行),粘贴命令并回车。完成。

这就是全部。那些声称“安装太复杂,必须用 VPS”的人要么没有实际尝试过,要么有其他动机。

步骤二:选择模型

安装完成后,OpenClaw 会引导你完成初始配置。首先是选择 AI 模型提供商。

你有三个主要选项:

(1)Anthropic 的 Claude Opus 4.6 是最强大的选择。它专门针对这类任务进行了优化,是最聪明的模型,也是最“有温度”的模型,对话体验最自然。缺点是成本较高,每月约 200 美元。

(2)OpenAI 的模型是中间选项。如果你已经有 ChatGPT 订阅,可以直接使用。它的能力强大,但对话体验不如 Claude 温暖自然。

(3)Minimax 是经济型选择。每月只需 10 美元左右,虽然不如前两者强大,但对于预算有限的用户来说性价比极高。

关于 Anthropic 的使用限制:虽然 Anthropic 的服务条款不鼓励将其 API 用于 OpenClaw,但 AlexFinn 表示他听说过有人因此被封号,却从未真正遇到过这样的人。他用了一个“眨眼”的表情暗示:你可以自己决定如何使用你的订阅。

配置模型时,关键是正确复制 API token。将 token 先粘贴到记事本中,确保它是单行格式,没有换行符或其他格式问题,然后再粘贴到 OpenClaw 中。这是大多数人出错的地方。

步骤三:设置消息服务

OpenClaw 最酷的地方在于:你不需要通过专门的网站或应用与它交互,你可以通过日常使用的通讯工具与它对话,包括 iMessage、Telegram、Discord 等。

AlexFinn 强烈推荐 Telegram。Telegram 支持线程化和分块显示,让对话体验更接近与真人交流。设置过程非常简单,OpenClaw 会逐步引导你完成。

完成这三步后,你的 OpenClaw 就已经“孵化”成功了。你没有花 5000 美元请技术专家,你自己在五分钟内完成了整个过程。

首要任务:建立工作关系

Image

OpenClaw 启动后,第一件事是向它介绍你自己。这不是形式主义,这直接决定了它未来的工作质量。

想象你雇佣了一名新员工。你会做什么?你会告诉他关于公司、团队、目标和工作方式的一切。OpenClaw 也需要这些信息。

三个核心信息层

打开 Gateway 仪表板(或直接在 Telegram 中),进行一次完整的“信息倾倒”:

(1)个人背景。

告诉 OpenClaw 你是谁,你的专业背景,你的技能。AlexFinn 的例子:“我是 Alex Finn,软件工程师,学过计算机科学,做过多年开发,后来在大型科技公司管理技术咨询团队,现在创作 AI 相关内容,开发软件产品。”

(2)工作偏好。

说明你希望如何与 OpenClaw 协作。AlexFinn 的指令:“我希望你主动积极,自主行动。不需要事事请示,直接完成任务。尽可能推进我们的目标和使命。”

(3)目标和抱负。

这是最重要的部分。你想实现什么?AlexFinn 的目标是:“创建一个 24/7 自主运营的公司,持续创造价值。同时,围绕每个有趣的项目创作内容。”他还设定了具体的收入目标:“通过 SaaS 和产品在一年内赚到 100 万美元。”

这些信息会被永久保存在 OpenClaw 的记忆中。从此以后,你们的每次对话都会包含这个背景,它的每个决策都会朝着这些目标前进。

如果你还不确定自己的目标,可以从简单的开始:“我想创建自己的在线业务,赚到第一笔收入。”关键是给 OpenClaw 一个方向。

用例一:每日简报系统

Image

建立工作关系后,第一个实用工作流是设置每日简报。这是一份 OpenClaw 每天早上自动发送给你的个性化报告,包含你需要知道的所有信息。

AlexFinn 的简报内容

情人节那天早上,AlexFinn 的 OpenClaw(他给它取名 Henry)发来了当天的简报:

开头是“早上好,情人节快乐”,这是 Henry 根据日期自动添加的个性化问候。

(1)天气预报

基于 AlexFinn 的位置。

(2)相关新闻。

Henry 知道 AlexFinn 对 vibe coding、Claude Code 和 Codex 感兴趣,所以它整夜研究新闻,筛选出相关趋势和更新。

(3)视频创意。

Henry 提供了几个当天可以拍摄的视频角度,这样 AlexFinn 醒来后可以直接选择一个开始工作。

(4)待办任务。

Henry 连接到 Things 3(AlexFinn 使用的待办事项应用),列出当天的任务,包括 AlexFinn 分配给 Henry 的任务。
Henry 连接到 Things 3(AlexFinn 使用的待办事项应用),列出当天的任务,包括 AlexFinn 分配给 Henry 的任务。

(5)推荐任务。

这是最重要的部分。Henry 会思考:“今天我能完成哪些任务来让老板更接近目标?”这种反向提示(reverse prompting)会打开你从未想过的可能性。

如何设置你的简报

OpenClaw 使用 cron jobs(计划任务)来安排未来的工作。你只需要告诉它一次,它就会永久执行。

发送这个提示(AlexFinn 在视频描述中提供了模板):

“请为我安排每天早上 8 点的简报,通过 Telegram 发送。简报内容包括:

1. 我所在地的天气

2. AI 领域的热门新闻(可以替换成你关心的任何领域)

3. 我在 Things 3 中的待办任务(可以替换成你使用的任何待办应用)

4. 你今天可以为我完成的、能让我更接近目标的任务“

第四项是核心。它让 OpenClaw 主动思考如何为你创造价值,这会带来意想不到的结果。

你可以随时调整这个简报。几周后,如果你想添加新内容或删除某些部分,只需要说:“调整我的早间简报,添加 X,删除 Y。”OpenClaw 会自我改进。

用例二:任务控制中心

Image

设置好每日简报后,下一步是构建 Mission Control(任务控制中心)。这是一个定制化的仪表板,用于构建你和 OpenClaw 需要的所有工具。

AlexFinn 的控制中心

AlexFinn 的 Mission Control 经过几周的迭代,现在包含了大量定制工具:

(1)待办事项列表

与他的工作流完全集成。

(2)子 Agent 追踪器

显示所有正在运行的自动化任务。

(3)审批队列

OpenClaw 会在这里提交它创建的内容(推文、脚本、图片),等待 AlexFinn 批准后再发布。

所有这些工具都是由 OpenClaw 自己编写的。AlexFinn 没有写一行代码,甚至没有自己进行 vibe coding。他只是说:“Henry,为我们构建一个 Mission Control。”Henry 就自己完成了整个项目。

AlexFinn 称这个过程为“vibe orchestration”(氛围编排):你不是在编程,你是在指挥 OpenClaw 为自己编程。

如何构建你的控制中心

发送这个提示:

“我希望你建立一个 Mission Control。这是一个定制化的地方,用于构建我们需要的任何工具来提高生产力。请使用 Next.js 构建,并在本地托管。”

OpenClaw 会为你 vibe code 出一个基础仪表板。之后,每当你需要新工具时,只需说:“让我们在 Mission Control 中构建一个待办列表”或“构建一个可视化工具来显示你的工作状态”。

你不需要编程经验。OpenClaw 会为你完成所有技术工作。

关键思维模式是:每次你执行某个工作流时,问自己:“我们可以在 Mission Control 中构建什么工具来让这个流程更简单?”这是反向提示的实践,让 OpenClaw 基于它对你的了解来设计解决方案。

很多人问 AlexFinn 能否开源他的 Mission Control。他的回答是:可以,但不推荐。你的 Mission Control 应该完全定制化,反映你的目标、工作方式和需求。复制别人的模板会失去这个工具最大的价值。

高级概念:大脑与肌肉架构

Image

随着工作流的复杂化,你需要理解“大脑与肌肉”的架构概念。这个策略既能节省成本,又能提升效率。

架构原理

你在设置时选择的模型(如 Claude Opus 4.6)是“大脑”。它负责决策、规划和协调。但它不需要亲自执行每个任务,它可以调用其他模型作为“肌肉”来完成具体工作。

Opus 4.6 是目前世界上最好的“大脑”。它擅长对话、决策和任务分解。但它很昂贵。通过使用其他模型作为“肌肉”,你可以在保持智能决策的同时大幅降低成本。

肌肉模型的选择

AlexFinn 的配置:

● 编程任务使用 Codex。

Codex 便宜但强大,非常适合代码生成。

● 查找最新新闻使用 XAI(Grok API)。

因为 XAI 连接到社交媒体,它能很好地识别当前趋势。

● 网络搜索使用 Brave API。

Brave 提供了优质且经济的搜索能力。

设置方法很简单。告诉 OpenClaw:“今后编程时请使用 Codex CLI。”它会要求你提供 OpenAI API 密钥,输入后就完成了。然后说:“查找推文时请使用 X API。”提供密钥,完成设置。

从此以后,Opus 作为大脑会节省 token 成本,因为它不再亲自执行所有任务,而是调度最适合的“肌肉”来完成工作。

本地模型:终极目标

AlexFinn 认为未来在于本地模型。这就是他花 2 万美元购买 Mac Studio 的原因:他想要能够运行本地 AI 模型的最强大硬件。

本地模型是在你的电脑上运行的 AI,不依赖互联网或云服务。它有两个巨大优势:

(1)无限 token。

你可以随意使用,不用担心成本。

(2)个性化本地智能。

你拥有完全的控制权和隐私。

AlexFinn 已经开始使用 MiniMax 2.5 本地模型进行编程,所有编程工作现在都在他的电脑上免费完成。

这是否意味着你需要立即购买 Mac Studio?不。但随着你的工作流变得更复杂,你可以逐步考虑:“这个工作流能用本地模型替代吗?”然后根据需求升级硬件。

Mac mini 也可以运行本地模型,虽然不如 Mac Studio 强大,但足以让你体验本地智能的未来。而且,研究和使用本地模型本身就很有趣,能让你更深入地理解 AI 技术。

AlexFinn 相信,在不久的将来,我们会拥有可以在个人电脑上运行的超级智能本地模型,完全不需要支付 token 费用。他正在为这个未来做准备。

OpenClaw 思维模式:如何正确使用

Image

许多人在使用 OpenClaw 时犯了根本性错误。他们把它当作工具来配置,实际上应该把它当作员工来管理。

核心原则一:它是超级智能的员工

OpenClaw 是一个超级智能的人类员工,你是这个员工的管理者。这个认知框架会改变你的所有交互方式。

AlexFinn 看到很多人直接修改配置文件来改变 OpenClaw 的行为。这是最愚蠢的做法,也是破坏 OpenClaw 的最快方式。

正确做法:不要告诉它如何做事,告诉它你想要什么结果。

错误:“我要去修改配置文件,把心跳间隔从 30 分钟改成 5 分钟。”(心跳是 OpenClaw 自动检查待办任务的机制)

正确:“OpenClaw,我希望你把心跳间隔改为每 5 分钟一次。”

让 OpenClaw 自己找到最佳实现方式。它是超级智能的,它知道如何正确地编辑自己的配置。你只需要设定目标,它会找到路径。

核心原则二:反向提示是你的朋友

反向提示(reverse prompting)是 AlexFinn 强调的最重要概念。传统提示是你告诉 AI 做什么,反向提示是你问 AI 应该做什么。

传统提示:“在 Mission Control 中构建一个待办列表。”

反向提示:“基于你对我们的了解,我们应该在 Mission Control 中构建什么?”

反向提示:“基于我们的目标和抱负,你会在 Mission Control 中构建什么工具?”

反向提示:“完成这个任务的最佳方式是什么?”

你问的问题越多,OpenClaw 的表现就越好。AlexFinn 的建议:把“反向提示”写在便利贴上,贴在显示器上。尽可能多地使用反向提示,你会从 OpenClaw 中获得更多力量。

核心原则三:让它自我改进

每次 OpenClaw 遇到问题或做错事情时,不要简单地纠正它,让它构建解决方案。

AlexFinn 的例子:他希望 OpenClaw 能够发送推文草稿,等待他批准后再发布。OpenClaw 当时没有审批队列功能,所以它为自己构建了一个,集成到 Mission Control 中。

任何 OpenClaw 做不到的事情,让它构建出来。任何它做得不好的事情,让它改进。

AlexFinn 想让 OpenClaw 写他的 newsletter。前几次尝试都很糟糕。他没有放弃,而是说:“暂停。阅读我过去所有的 newsletter,然后构建一个 newsletter 技能,帮助你写出更好的 newsletter。”
AlexFinn 想让 OpenClaw 写他的 newsletter。 前几次尝试都很糟糕。 他没有放弃,而是说:“暂停。 阅读我过去所有的 newsletter,然后构建一个 newsletter 技能,帮助你写出更好的 newsletter。 ”

OpenClaw 照做了。它分析了 AlexFinn 的写作风格,构建了一个新技能,从此以后 newsletter 质量大幅提升。

记住:OpenClaw 是自我改进的。每次遇到问题,都是一个让它变得更强大的机会。

高级工作流:Discord 多频道系统

Image

Telegram 适合日常对话,但 Discord 适合复杂的多阶段工作流。

Image

AlexFinn 的 Discord 设置

AlexFinn 在 Discord 中设置了多个频道,每个频道负责工作流的一个阶段:

(1)Alerts 频道

每两小时,Henry 在 X 上查找关于 AlexFinn 感兴趣话题的热门推文。

(2)Research 频道

Henry 对这些热门推文进行深入调查,研究背后的故事。

(3)Scripts 频道

Henry 基于研究结果撰写 YouTube 脚本。

这是一个完整的内容生产流水线。每个频道都有明确的职责,AlexFinn 可以随时查看每个阶段的工作记录。

如何设置你的 Discord 工作流

AlexFinn 不认为 Discord 是 Telegram 的替代品,而是补充。Telegram 用于日常交流,Discord 用于结构化工作流。
AlexFinn 不认为 Discord 是 Telegram 的替代品,而是补充。 Telegram 用于日常交流,Discord 用于结构化工作流。

使用反向提示来设计你的 Discord 设置:

“OpenClaw,我想建立一个高级 Discord 工作流。你认为我们应该设置哪些频道来让工作流更高效?”

OpenClaw 会基于它对你的了解提出建议,然后为你完成整个设置。

安全性:强大的力量需要谨慎的责任

OpenClaw 的强大性也带来了风险。AlexFinn 的态度很直接:如果使用得当,它是安全的;如果使用不当,它可能造成损害。正是因为它如此强大,它才可能不安全。如果它没有危险性,它也不会如此强大。

三条核心安全规则

Image

规则一:OpenClaw 可以访问你电脑上的一切。

OpenClaw 对你的电脑拥有管理员权限。如果你在电脑上登录了 X,它可以访问你的整个 Twitter 账户。如果你登录了 Gmail,它可以读取所有邮件并代表你发送邮件。如果你的电脑上有密码或 API 密钥,OpenClaw 可以访问它们。

因此:如果你不希望 OpenClaw 访问某些内容,不要在运行 OpenClaw 的电脑上登录那些账户。

规则二:不要将 OpenClaw 暴露给外界。

如果你让 OpenClaw 加入群聊,或让它回复 X 上的评论,它可能被“提示注入”攻击。恶意用户可以在消息中嵌入指令,诱骗 OpenClaw 泄露你的密码、API 密钥或其他敏感信息。

因此:保持 OpenClaw 私密。不要让任何人与它交互,不要把它放在公共空间。AlexFinn 不让他的 OpenClaw 阅读推文回复或邮件。他最终会建立防护措施,但现在他只让 OpenClaw 处理个人工作。

规则三:深思每个指令的后果。

在给 OpenClaw 下达指令之前,思考:“这会让它暴露在外吗?这会让它做有风险的事情吗?这会让它容易被提示注入吗?”

如果你对每个指令都深思熟虑,基本上不会发生坏事。

你甚至可以更进一步:“OpenClaw,在执行任何操作之前,给我一个详细的分步计划,说明你打算做什么。”这样你可以在它行动前审查计划。

个人责任

AlexFinn 引用了《蜘蛛侠》的名言:“能力越大,责任越大。”如果你在使用 OpenClaw,你拥有巨大的能力,所以你必须承担巨大的责任。

只要遵守这三条规则,OpenClaw 可以安全地为你创造巨大价值。

结语:逃离永久底层阶级

AlexFinn 在视频中说,成功设置 OpenClaw 的人“正在逃离永久底层阶级”。这个说法听起来夸张,但背后有深刻的洞察。

AI Agent 技术代表了生产力的根本性转变。过去,你的产出受限于你的时间和精力。现在,你可以拥有一个 24/7 工作的数字员工,它会学习、改进,并主动为你创造价值。

关键在于正确使用它。99% 的人会把 OpenClaw 当作“另一个 ChatGPT”,浪费它的潜力。1% 的人会把它当作真正的员工来培养,建立定制化工作流,让它自我改进。

这 1% 的人会获得完全不同的结果。

AlexFinn 的频道专注于 OpenClaw 的深度内容,他每周五在 Vibe Coding Academy 举办现场训练营,已有 600 多人参加。他的建议是:开启通知,因为 OpenClaw 的生态系统每天都在快速进化。

这是有史以来最激动人心的时代。技术已经准备好了,现在轮到你了。

© 2026 suibing的博客

Theme by Anders NorenUp ↑