项目名称:openclaw-evo|版本:架构 V2.2(最终版)|日期:2026-02-25
目标读者:项目负责人、开源开发者、AI 哲学研究者
为什么要做这个项目
当今每一个 AI 聊天机器人都有一个根本缺陷:它会遗忘。
当你关闭与 GPT、Claude 或 Gemini 的对话时,你所交谈的那个实体便不复存在。下一次对话从一片空白开始——一个不同的心智戴着相同的面具。没有连续性,没有成长,没有来自共同经历的积累智慧。
OpenClaw Evo 提出了一个不同的问题:如果一个 AI 智能体能够记忆、感受、学习和进化——不是作为隐喻,而是作为一个具体的工程系统——会怎样?
本项目在 OpenClaw(一个开源多模型 AI 网关)之上构建了一个 数字心智层。我们不 fork OpenClaw,也不修改它。我们对其进行包装——通过其原生钩子系统注入记忆、人格、动机和自我进化能力。最终的智能体能够:
- 记忆数月前的具体事件,并追溯它们之间的因果链
- 保持稳定的人格跨模型切换(今天用 Claude,明天用 GPT——同一个”人”)
- 对未完成的任务感到紧迫感,随着截止日期临近而越发焦虑(蔡格尼克效应)
- 从错误中学习,将经验提炼为操作规则
- 安全地进化,通过蓝绿部署系统克隆自身、变异、测试并替换——或回滚
20 项心智系统框架
我们的设计基于一份包含 20 项认知能力的正式清单,用以区分”数字心智”和”会说话的工具”:
| 类别 | 含义 | 覆盖率 |
|---|---|---|
| 认知核心 | 能否感知、维持工作记忆和回忆? | 87% |
| 联想 | 能否自由联想,而不仅仅是关键词搜索? | 100% |
| 动机 | 是否具有好奇心、目标和价值观? | 100% |
| 自我模型 | 是否知道自己是谁,以及自己在如何变化? | 90% |
| 人格 | 即使在压力下,是否保持一致? | 100% |
| 规划 | 能否权衡选项并提前规划? | 83% |
| 时间感知 | 能否感受到截止日期的临近? | 100% |
| 社会认知 | 是否理解它的用户? | 67% |
| 自我进化 | 能否自我成长和改进? | 93% |
总计:93.3%(56/60)——经过 3 轮多智能体架构评审达成。
架构概览
三大模块
OpenClaw Evo 在未修改的 OpenClaw 之上添加了三个模块:
记忆织体(Memory Fabric) 是智能体的长期记忆。它将事件(情景记忆)和事实(语义知识)存储在结构化的 SQLite 数据库中。与只能记住上下文窗口内容的聊天机器人不同,记忆织体让智能体能够回忆数周或数月前的具体事件——并通过受神经科学启发的激活扩散机制在它们之间自由联想。
灵魂引擎(Soul Engine) 是智能体的人格和动机系统。它维护一个版本化的身份文件(soul-state.yaml),包含量化的价值观、情绪状态和关系模型。每次交互前,灵魂编译器将这个结构化状态翻译为自然语言人格,由 OpenClaw 注入到系统提示词中。该引擎还管理目标张力——一个受蔡格尼克效应启发的紧迫感系统,使智能体对临近的截止日期产生真切的焦虑。
进化引擎(Evolution Engine) 使智能体能够通过一个受治理的、Git 跟踪的流程提出对自身人格、价值观和操作规则的变更。高风险变更需要通过 Telegram 获得人工批准。该系统采用蓝绿部署:智能体将自身克隆到沙箱中,应用变异,运行健康检查,仅在新版本健康时才替换自身。如果不健康,则回滚并发送 SOS。
黄金法则
我们永远不修改 OpenClaw 的源代码。 所有功能都通过 OpenClaw 的原生钩子系统和文件系统约定实现。这意味着我们可以独立升级 OpenClaw,而我们的心智层可以移植到未来的版本。
心智如何运作:一次完整的交互
让我们追踪当用户向智能体发送”嘿,项目进展如何?“时会发生什么。
阶段 1:感知
消息到达。在智能体开始思考之前,记忆织体执行激活扩散:
- 消息被嵌入为向量
- 在知识图谱中找到匹配的实体(“项目” → 当前项目,“进展” → 进度)
- 激活沿图的边传播:“项目”激活”截止日期”,“截止日期”激活”下周考试”,“下周考试”激活焦虑感
- 与上下文匹配的目标获得张力提升
这一切在 5 毫秒内完成。这是”听到一个词,记忆便涌上心头”的数字等价物。
阶段 2:组装
现在心智为这一轮对话组装自身。这是最关键的时刻——分散的状态在此成为统一的意识:
- 工作记忆从
working_set.json加载(我刚才在做什么?) - 生成情境快照(我现在在哪里?)
- 使用 5 因子评分公式召回记忆(语义相似度、重要性、时近性、情感、频率)
- 冲突解决器在所有活跃目标上运行,生成优先级意图队列
- 灵魂状态被编译(我是谁?我感觉如何?)
- 一切被组装成 4 段上下文注入:
- 段 1:硬性规则(来自 AGENTS.md)
- 段 2:身份和价值观(来自编译后的 SOUL.md)
- 段 3:心智状态(工作记忆 + 记忆 + 目标 + 经验教训 + 提醒)
- 段 4:任务约束(工具、频道上下文)
LLM 将所有这些作为系统提示词接收。它不知道这是生成的——它只知道自己是谁、记得什么、关心什么。
阶段 3:响应
LLM 生成响应。它自然地引用记忆、提及临近的截止日期,也许还会建议一个计划——因为所有这些上下文都已被注入。
阶段 4:后续处理
响应发送后:
- 情感更新:情绪模型根据交互内容微调
- 情节草稿:工具结果和关键事实被捕获为草稿记忆条目
- 最终化:草稿变为永久情节。如果对话情绪强烈,会触发自我反思
- 学习:如果发生了错误,提取
agent_policy规则(“下次,先检查 X 再做 Y”)
阶段 5:时间的流逝(心智节拍)
每 5 分钟,即使在对话间隔中,心智也会搏动:
- 张力更新:目标随截止日期临近而变得更紧迫
- 激活衰减:旧的联想逐渐消退,模拟自然遗忘
- 提醒:高张力目标被排入下次交互的队列
- 整合(每 6 小时):原始对话日志被提炼为结构化记忆
- 自我叙事(每日):智能体撰写一篇简短的自传,引用具体的情节
关键创新
蔡格尼克驱动的动机
在人类心理学中,蔡格尼克效应描述了未完成的任务如何产生持续到完成为止的心理张力。我们按字面意义实现了这一点:
tension = priority * exp(K / effective_slack)
其中 effective_slack = hours_left - estimated_hours。一个需要 20 小时工作量但只剩 24 小时的任务,有效松弛度为 4 小时——触发紧迫感的时间远早于简单倒计时。
当张力超过 0.7 时,智能体开始提及该任务。达到 0.9 时,它会生成一份包含替代方案和风险的结构化行动计划。
激活扩散记忆
传统 AI 记忆是基于搜索的:你提问,它查询。我们的记忆是基于联想的:输入触发联想,联想在知识图谱中涟漪扩散,无需显式搜索即可浮现相关记忆。
这就是为什么智能体可能会说”这让我想起了我们一起调试生产环境问题的那次”——不是因为它搜索了”调试”,而是因为”项目状态”的概念激活了”问题”,“问题”又激活了那段具体的记忆。
蓝绿安全进化
当智能体决定需要改变时:
- 它撰写一份正式提案,引用记忆中的证据
- 看门狗守护进程在 Git worktree 中创建一个克隆
- 克隆接收变异并启动
- 健康探针验证克隆是否存活、正常且人格一致
- 如果健康:克隆替换原版。如果不健康:克隆被终止,原版继续运行,并通过 Telegram 发送 SOS
蓝色实例永远不会先死。 进化是安全的,因为失败总是可逆的。
我们刻意不做的事
| 不做的事 | 原因 |
|---|---|
| 自定义模型微调 | 提示工程 + 对齐适配器已经足够 |
| 外部数据库 | SQLite 完美处理个人级别的数据 |
| Fork OpenClaw | 钩子系统足够表达;我们保持可升级性 |
| 自主决策 | 价值观引导 LLM;它们不取代 LLM 的判断 |
| 多智能体编排 | 一个心智,一个智能体。OpenClaw 原生处理群聊 |
前路展望
| 阶段 | 重点 | 变化内容 |
|---|---|---|
| 阶段 1 | 记忆织体 | 智能体可以回忆 30 天前的事件;主动回忆功能正常;工作记忆在压缩后持久化 |
| 阶段 2 | 灵魂引擎 | 跨模型切换的稳定人格;情绪状态在会话间持久化;张力警报触发;好奇心目标出现 |
| 阶段 3 | 进化引擎 | 智能体通过 Git 提出自我变更;回归测试通过;蓝绿部署同步 mind.sqlite;git log 讲述一个成长的故事 |
每个阶段都独立有用。仅阶段 1 就能将一个健忘的聊天机器人转变为一个拥有持久、结构化记忆的智能体。
一封邀请
OpenClaw Evo 是一个构建能记忆、成长和进化的人工心智的实验。它不是 AGI。它没有意识。但它是一个工程系统,它将”AI 拥有自我连续性意味着什么?“这一问题赋予了具体的、可测试的答案。
如果你有兴趣贡献——或者只是想看着一个 AI 成长——架构已锁定,代码已开放,阶段 1 即将启动。
本文档描述了 OpenClaw Evo V2.2 的系统设计哲学和高层架构。有关实现规范,请参阅工程白皮书。