Kept 别忘了 · 理论基础

仿生记忆架构

从扁平存储到类脑结构

核心命题:记忆的结构化方式决定了系统对大模型的依赖程度。越接近人脑记忆的组织方式,LLM 的角色越从"全量推理"退化为"确认与微调"——系统变得更快、更便宜、更不可替代。

一次 LLM 调用的脆弱性

所有智能集中在一个点上,系统没有积累——第 501 条记忆的理解质量和第 1 条完全一样。

当前 Kept 脆弱

用户说话
Apple Speech 转写
Claude Haiku 一次调用
结构化 JSON
存入 Core Data
所有智能集中在一个点。理解意图、分类类型、推断触发、提取人物、生成展示——6 项任务全靠一次 LLM 调用。失败则归零。

人脑的方式 积累

感知输入
已有图式快速匹配
上下文增强编码
与记忆网络关联
模式强化 / 新图式涌现
每次编码都基于已有网络。"盐没了"的反应取决于购物习惯(图式)、上次买盐的记忆、你对"盐"的知识。积累加速理解。
如果存储结构能积累出"加速结构",LLM 的角色就从 "全量推理引擎" 变为 "确认与微调工具"

六个模块 Six Modules

四个理论子系统和两个工程桥梁,共六个模块相互依赖。点击节点查看详情。

🧠
编码上下文
Encoding Context
理论
Gateway 路由
Dual-Process Router
桥梁
📊
图式系统
Schema System
理论
💤
Heartbeat 巩固
Consolidation
桥梁
🔍
检索重建
Retrieval Reconstruction
理论
🌱
渐进演化
Progressive Evolution
理论

编码上下文系统

Encoding Context — Tulving 编码特异性原则 (1973)

人脑编码记忆时同时附着空间、时间、活动、情感等多维上下文。Kept 当前只存储 LLM 输出的结构化字段——丢失了几乎所有编码上下文。

六个编码维度

📍
空间
经纬度 + 语义地点
家/公司/超市
🕓
时间
时段语义
早晨/午间/深夜
🚶
活动
步行/驾车/静止
CMMotionActivity
🔗
前序记忆
上一条记忆 ID
间隔时间
📱
录入方式
iPhone / Watch
Widget / Siri
🎵
情感线索
语速/音量/停顿
紧急 vs 沉思

三重价值

降低 LLM 推理负担 为图式提供原材料 使检索重建成为可能

无上下文:"盐没了" → LLM 推理 → 可能购物、可能陈述、可能抱怨
有上下文:"盐没了" + 在家 + 晚上 + 静止 → LLM 确认 → 做饭发现缺了,购物意图

Gateway 路由层

Dual-Process Router — Kahneman 双过程理论 (2011)

Daniel Kahneman 的双过程理论区分了两种认知模式:系统 1(快速、自动、基于模式)和系统 2(缓慢、费力、需要推理)。日常认知约 95% 由系统 1 处理。当前 Kept 所有记忆都走系统 2(LLM),即使 80% 是模式化的。

三条路径

1
快速路径 — System 1 ~5ms

图式匹配置信度 ≥ 0.9 + 无偏离信号 → 图式预填充 → 直接输出,不调用 LLM。
"料酒没了" → 匹配"调料购物"图式 → 自动完成

2
确认路径 — System 1.5 ~200ms

匹配置信度 0.6-0.9,或有轻微偏离 → 图式预填充 + LLM 确认补充。
"帮我买那个日本的酱油" → 预填充 + LLM 补充品牌信息

3
完整路径 — System 2 ~800ms

无图式匹配,或全新模式 → 完整 LLM 调用(当前方式)。结果回写模式缓存供未来学习。
"下次体检要查一下甲状腺" → 全新模式,LLM 全量推理

理论支撑

Kahneman 双过程 (2011) Shiffrin & Schneider 自动化 (1977) Simon & Chase 专家模式 (1973)

关键洞察:通过大量重复练习,控制加工(LLM 推理)可以转化为自动加工(图式匹配)。每个图式就是一个"块"(chunk),系统积累的块越多,处理速度越快,LLM 参与越少。

图式系统

Schema System — Bartlett (1932) & Schank MOPs/TOPs (1982)

图式是大脑基于反复经验形成的高阶认知结构。你有一个"餐厅图式"——不需要每次从零学习。图式让 80% 的日常处理自动化。

"调料购物"图式示例

图式: "调料购物"
触发模式: 晚上在家发现缺少 → 录入
关联商品: 盐、酱油、醋、料酒、花椒...
关联地点: 超市、盒马
典型 trigger: LOCATION(超市)
历史频率: 约 2 周一次

无图式 vs 有图式

输入:"酱油快没了"
理解"快没了"是缺少的意思 LLM
推断酱油是调料/食品 LLM
推断需要购买 LLM
推断购买地点是超市 LLM
分类为 ACTION LLM
生成 trigger: LOCATION(supermarket) LLM
生成 display: "买酱油" LLM
LLM 负担
100%
输入:"酱油快没了"
端侧匹配: "酱油" ∈ 图式"调料购物" 图式
预填充 type: ACTION 图式
预填充 trigger: LOCATION(supermarket) 图式
预填充 display: "买酱油" 图式
LLM 确认预填充全部正确 确认
LLM 负担
20%

图式涌现过程

1
"盐没了" → 纯 LLM 推理
ACTION, LOCATION(supermarket)
2
"酱油快没了" → 纯 LLM 推理
ACTION, LOCATION(supermarket)
3
"家里醋没有了" → 纯 LLM 推理
ACTION, LOCATION(supermarket)
4
"料酒也没了" → 纯 LLM 推理
ACTION, LOCATION(supermarket)
5
"花椒也买点" → 系统检测到模式 图式涌现
5 条都涉及调料 + 晚上录入 + ACTION + LOCATION(supermarket)
6
"料酒没了" → 图式匹配 快速路径
图式预填充 → LLM 仅确认 → 完成

ThoughtThread ⊂ MemorySchema —— 当前已实现的线索系统是图式系统在 THOUGHT 类型上的特例。图式系统将其泛化到所有记忆类型。

Heartbeat 自主巩固

Autonomous Consolidation — Walker & Stickgold (2006), Tononi & Cirelli (2003)

睡眠不仅仅是"保存"白天的记忆——它主动重组和整合记忆。实验表明,睡眠后发现隐藏规律的比例从 20% 提升到 60%。Heartbeat 就是 Kept 的"睡眠"。

三个巩固任务

1
SchemaDetector — 图式发现

扫描近期记忆,按特征聚类(type + trigger + encoding_context)。≥ 5 条同模式 + 特征稳定 → 涌现新图式。LLM 批量命名确认。

2
AssociationUpdater — 关联更新

为新记忆生成 embedding,计算与相邻记忆的相似度,更新 ThoughtThread 成员关系,发现跨图式关联。

3
DecayService — 记忆衰减

实现突触稳态:等比例降低所有记忆活跃度(保留 95%/次),让重要的浮出、不重要的沉没。强连接(常访问/属于图式/有待触发)抵抗衰减。

设计原则:用户永远感知不到 Heartbeat 的存在。它像人的睡眠一样安静地工作——用户第二天打开 App,发现记忆自动变得更有序了。
约束:iOS BGTaskScheduler,仅充电 + 有网络时执行。
比喻:白板写满了 → 睡眠不是擦掉所有内容,而是把笔迹淡化:用力写的还能看见,轻轻写的消失了。

理论支撑

Walker & Stickgold 睡眠巩固 (2006) Tononi & Cirelli 突触稳态 (2003) Nader et al. 记忆再巩固 (2000)

检索重建系统

Retrieval Reconstruction — Bartlett (1932) & Schacter (1996)

记忆不是录像回放,每次"回忆"都是根据当前语境重新构建的。同一条记忆在不同语境下应有不同呈现。

"买盐"在不同语境中

通知推送
🛒 买盐
你在超市附近

在超市 — 主动推送

优先级最高 — 最佳执行时机
形式推送通知
内容突出显示,需要行动
语气直接、明确
Widget
下次出门
记得买盐

在家做饭 — 安静展示

优先级中等 — 非执行时机
形式Widget 安静展示
内容提醒存在但不催促
语气轻柔、不打扰
列表聚合
☐ 盐
☐ 酱油
☐ 醋

购物清单 — 聚合展示

优先级与其他购物记忆平级
形式清单模式聚合
内容极简,只显示商品名
语气效率导向
浮现
对了,
家里盐没了

朋友问"要带什么" — 关联浮现

优先级社交语境触发
形式柔和浮现
内容以对话口吻呈现
语气朋友式提醒

重建的三个层次

1
触发层重建 已部分实现

决定什么时候浮现。地理围栏/时间/周期触发。扩展:结合编码上下文和图式,触发更智能。

2
排序层重建 部分实现

决定呈现顺序。超市时购物排前,深夜时 THOUGHT 排前,早晨 ACTION 排前。

3
内容层重建 远期目标

同一条记忆的展示内容根据语境变化。预生成多个"重建视角"缓存。

渐进演化路径

Progressive Evolution — 每一步独立有价值

从扁平结构到仿生架构,不能"大爆炸"重构。每步必须:独立有价值、向下兼容、可验证、可回滚。

LLM 依赖度: 0: 100% 1: 90% 2a: 80% 2b: 50% 3: 30% 4: 20%

六步详情见下方"演化路线图"区块。

六步演化路线 Evolution Roadmap

从扁平存储到闭环自适应,LLM 依赖度从 100% 降至 20%。六步包含 Step 2a(Gateway 路由)和 Step 2b(图式 + Heartbeat)。点击展开每步详情。

Step 0 扁平存储(当前)
100
现状
  • 每条记忆 1 次完整 LLM 调用
  • 无积累效应
  • LLM 故障 = 系统故障
对应阶段
  • MVP + P2.3 已完成
  • Prompt v2.7 + 语音优化
Step 1 编码上下文
90
做什么
  • MemoryEntity 新增编码上下文字段
  • 录入时自动采集位置、时段、活动、设备
  • 编码上下文传给 LLM 辅助推理
价值
  • 为图式涌现积累原材料
  • 提升单次 LLM 推理质量
  • 理解用户使用模式
代价
  • Core Data lightweight migration
  • 存储增加 ~200 bytes/条
  • 不改变 UI
对应阶段
  • P2.6 记忆生命周期
  • 依赖:CoreLocation(已有)
Step 2a Gateway 路由
80
做什么
  • 服务端新增模式缓存(JSON)
  • /process 端点增加路由逻辑
  • 三条路径:快速/确认/完整
  • LLM 调用结果自动回写缓存
价值
  • 显著降低 API 延迟(5ms vs 800ms)
  • 降低 LLM 成本
  • 不改变客户端 = 零客户端风险
  • 模式缓存是图式系统雏形
验证指标
  • Gateway 路由命中率
  • 快速路径准确率(预期 > 95%)
  • 平均 API 延迟变化
对应阶段
  • P2.7-P2.8
  • 依赖:Step 1
  • 理论:Kahneman, Shiffrin & Schneider
Step 2b 图式涌现 + Heartbeat
50
做什么
  • 新增 MemorySchema 实体
  • Heartbeat 后台巩固(BGTaskScheduler)
  • SchemaDetector + DecayService
  • ThoughtThread 泛化为 Schema 子类型
价值
  • 系统开始有"记忆"
  • 第 501 条受前 500 条影响
  • Gateway 准确性大幅提升
  • 记忆自动衰减,避免堆积
验证指标
  • 图式覆盖率(新记忆匹配率)
  • 图式预测准确率
  • Heartbeat 执行频率
  • 衰减效果(dormant 数量是否合理)
对应阶段
  • P3.1-P3.2
  • 依赖:Step 2a + ThoughtThread
  • 理论:Bartlett, Walker & Stickgold
Step 3 智能检索
30
做什么
  • RetrievalEngine 语境化排序
  • 通知聚合(图式内聚合)
  • Widget 动态调整
价值
  • 用户直接感受到改善
  • 通知更少但更有用
  • 实现"语境重建"原则
Step 4 闭环自适应
20
做什么
  • 用户反馈驱动图式进化
  • 图式反哺编码
  • 高置信度可跳过 LLM
  • 跨图式关联(Schank TOPs)
价值
  • 真正的"仿生"状态
  • 系统自我进化
  • 越用越智能

LLM 角色演化 From Engine to Strategist

仿生架构的本质是 LLM 角色的渐进转变——从不可或缺的引擎,到偶尔咨询的战略家。

⚙️
引擎
Engine
每条记忆全量推理
LLM 故障 = 系统故障
100%
⚖️
裁判
Judge
上下文缩小推理空间
从"猜测"变为"确认"
80%
💬
顾问
Advisor
图式处理常规记忆
LLM 只处理新模式
30%
🎯
战略家
Strategist
图式发现、跨域关联
周批量调用最强模型
20%
成本模型对比(月 150 条记忆)
阶段LLM 调用/月模型月成本
当前150Haiku~$0.15
阶段 1150(更轻量)Haiku~$0.10
阶段 2~30(仅新模式)Haiku~$0.03
阶段 3~4(周批量)Sonnet/Opus~$0.20

关键洞察:阶段 3 总成本可能更高——但钱花在了刀刃上。Sonnet/Opus 做高阶分析,而非 Haiku 做基础分类。

模型无关性

图式系统让 Kept 在 LLM 供应商之间更灵活。80% 的记忆处理在端侧完成,与云端无关。剩余 20% 可灵活选择 Claude / GPT / Gemini / 端侧小模型。Kept 的护城河不是 LLM 能力,是基于时间积累的记忆结构。

认知科学参考 Cognitive Science

编码特异性原则
Tulving & Thomson, 1973
编码上下文系统的理论基础
图式理论
Bartlett, 1932
图式系统的理论基础
MOPs / TOPs
Schank, 1982
按目标结构组织记忆
记忆重建理论
Bartlett / Schacter, 1932/1996
检索重建系统的理论基础
记忆巩固
Muller & Pilzecker, 1900
夜间巩固任务的理论基础
情感标记假说
Damasio, 1994
编码上下文中的情感维度
间隔效应
Ebbinghaus, 1885
记忆衰减与复习策略
语境依赖记忆
Godden & Baddeley, 1975
编码上下文的检索价值
迁移适当加工
Morris, Bransford & Franks, 1977
多维编码 + 语境化检索
双过程理论
Kahneman, 2011
Gateway 路由层的理论基础
自动化理论
Shiffrin & Schneider, 1977
从控制加工到自动加工的转化
专家模式识别
Simon & Chase, 1973
图式作为"块"的积累机制
睡眠记忆巩固
Walker & Stickgold, 2006
Heartbeat 巩固系统的理论基础
突触稳态假说
Tononi & Cirelli, 2003/2006
记忆衰减机制的理论基础
记忆再巩固
Nader, Schafe & LeDoux, 2000
图式动态更新的理论基础

三个文档的分工

memory-types-theory.md
存什么 — 分类层
本文档
怎么做 — 架构层
memory-standard-thesis.md
为什么做 — 战略层

工程机制与理论的对应 Theory → Engineering

每一个工程决策背后都有认知科学的理论支撑。

10 项工程机制与认知科学的对应关系
工程机制认知科学对应映射关系
编码上下文字段编码特异性原则记录创建时的多维语境
Gateway 快速路径系统 1 自动加工模式匹配,无需深度推理
Gateway 完整路径系统 2 控制加工新模式需要 LLM 全量推理
模式缓存学习自动化的习得过程重复后从控制加工转为自动加工
图式涌现图式理论 + MOPs从经验中抽象出高阶认知结构
Heartbeat 巩固睡眠记忆巩固后台重组、模式发现、知识整合
DecayService 衰减突触稳态假说等比缩小,保留强连接
图式动态更新记忆再巩固被激活的图式重新进入可修改状态
检索重建引擎记忆重建理论根据当前语境重建记忆呈现
通知聚合图式激活检索活跃图式驱动关联记忆聚合

完整实施计划 Implementation Plan

五个阶段,每步独立可用、可验证、可回滚。

Phase 1: 编码上下文(P2.6-P2.7 · 2-3 天)

iOS 端:Core Data migration (Kept_v4) 新增 7 个 optional 编码上下文字段。新建 EncodingContextService.swift 采集位置/时间/活动/前序记忆/录入方式。
API 端:/process 接受 optional encoding_context,传入 LLM prompt 的 [编码上下文] 部分。
验证:录入记忆后检查 Core Data 中字段是否正确填充;对比有/无上下文时 LLM 分类结果差异。

Phase 2a: Gateway 路由(P2.7-P2.8 · 3-4 天)

服务端:新建 pattern-cache.js(PatternCache 类:load/save/match/learn)。/process 端点增加路由逻辑:先查缓存 → confidence ≥ 0.9 快速路径 / 0.6-0.9 确认路径 / < 0.6 完整路径。新增 CONFIRM_PROMPT(比 SYSTEM_PROMPT 短 ~70%)。
验证:同类记忆录入 5+ 条后新记忆是否走快速路径;对比快速路径 vs 完整路径的结果一致性。

Phase 2b: 图式涌现 + Heartbeat(P3.1-P3.2 · 5-7 天)

iOS 端:Core Data migration (Kept_v5) 新增 MemorySchema 实体。新建 SchemaDetector.swift(聚类算法 + LLM 批量命名)、DecayService.swift(衰减率 0.95/次 + 抗衰减因素)、HeartbeatScheduler.swift(BGTaskScheduler,充电 + 有网络时执行)。
ThoughtThread 泛化:提取通用图式逻辑,ThoughtThread 成为 MemorySchema(category: "thought") 的视图。
验证:模拟器录入 10+ 条同类记忆验证图式发现;测试 Heartbeat 调度执行;验证衰减曲线合理性。

Phase 3: 智能检索(P3.2-P3.3 · 4-5 天)

新增:RetrievalEngine.swift(语境化排序:图式激活权重 × 时间衰减 × 语境匹配度),通知聚合(同图式多条记忆聚合为一条通知),Widget 动态排序,HomeView 按图式分组展示。
效果:用户在超市收到 1 条"家里缺几样东西"的聚合通知,而非 3 条独立通知。
验证:通知点击率是否提升;Widget 记忆完成率;用户满意度。

Phase 4: 闭环自适应(P3.5+ · 长期目标)

闭环:用户完成记忆 → 图式 confidence += 0.02;忽略/删除 → confidence -= 0.05。图式反哺编码:新记忆自动关联最可能的图式。高置信度匹配可跳过 LLM 调用。跨图式关联发现(Schank TOPs)。
目标:日常 100% 图式匹配,0% LLM。周批量用 Opus 做图式审查、跨域发现。
理论:Nader et al. 记忆再巩固 (2000),Schank TOPs 跨域组织 (1982)。

核心信念

🧩
结构即智能
80% 的日常记忆处理是模式化的。人脑之所以毫不费力,不是因为每次都动用系统 2(LLM),而是因为系统 1(图式)已经自动化了。让结构做结构擅长的事。
积累不可压缩
图式不能预设,必须从用户数据中涌现。500 条记忆积累出的图式是个性化的、经过验证的、不可复制的。Gateway 可以加速运行效率,但不能跳过积累本身。
🧭
仿生是方向
不是声称"模拟大脑",而是用认知科学原理指导工程决策。每向仿生方向迈一步,系统就更智能、更省资源、更不可替代。
🏗️
工程需要理论
每一个工程决策——Gateway 的三条路径、Heartbeat 的三个巩固任务、DecayService 的衰减率——背后都有认知科学的理论支撑。理论指向的方向经过几十万年进化的验证。

"结构即智能。当存储结构本身能承载模式和关联时,LLM 的角色从'全量推理引擎'优雅地退化为'确认与微调顾问'——系统变得更快、更便宜、更不可替代。工程需要理论作为坚实依赖。"