从扁平存储到类脑结构
所有智能集中在一个点上,系统没有积累——第 501 条记忆的理解质量和第 1 条完全一样。
四个理论子系统和两个工程桥梁,共六个模块相互依赖。点击节点查看详情。
人脑编码记忆时同时附着空间、时间、活动、情感等多维上下文。Kept 当前只存储 LLM 输出的结构化字段——丢失了几乎所有编码上下文。
无上下文:"盐没了" → LLM 推理 → 可能购物、可能陈述、可能抱怨
有上下文:"盐没了" + 在家 + 晚上 + 静止 → LLM 确认 → 做饭发现缺了,购物意图
Daniel Kahneman 的双过程理论区分了两种认知模式:系统 1(快速、自动、基于模式)和系统 2(缓慢、费力、需要推理)。日常认知约 95% 由系统 1 处理。当前 Kept 所有记忆都走系统 2(LLM),即使 80% 是模式化的。
图式匹配置信度 ≥ 0.9 + 无偏离信号 → 图式预填充 → 直接输出,不调用 LLM。
"料酒没了" → 匹配"调料购物"图式 → 自动完成
匹配置信度 0.6-0.9,或有轻微偏离 → 图式预填充 + LLM 确认补充。
"帮我买那个日本的酱油" → 预填充 + LLM 补充品牌信息
无图式匹配,或全新模式 → 完整 LLM 调用(当前方式)。结果回写模式缓存供未来学习。
"下次体检要查一下甲状腺" → 全新模式,LLM 全量推理
关键洞察:通过大量重复练习,控制加工(LLM 推理)可以转化为自动加工(图式匹配)。每个图式就是一个"块"(chunk),系统积累的块越多,处理速度越快,LLM 参与越少。
图式是大脑基于反复经验形成的高阶认知结构。你有一个"餐厅图式"——不需要每次从零学习。图式让 80% 的日常处理自动化。
ThoughtThread ⊂ MemorySchema —— 当前已实现的线索系统是图式系统在 THOUGHT 类型上的特例。图式系统将其泛化到所有记忆类型。
睡眠不仅仅是"保存"白天的记忆——它主动重组和整合记忆。实验表明,睡眠后发现隐藏规律的比例从 20% 提升到 60%。Heartbeat 就是 Kept 的"睡眠"。
扫描近期记忆,按特征聚类(type + trigger + encoding_context)。≥ 5 条同模式 + 特征稳定 → 涌现新图式。LLM 批量命名确认。
为新记忆生成 embedding,计算与相邻记忆的相似度,更新 ThoughtThread 成员关系,发现跨图式关联。
实现突触稳态:等比例降低所有记忆活跃度(保留 95%/次),让重要的浮出、不重要的沉没。强连接(常访问/属于图式/有待触发)抵抗衰减。
设计原则:用户永远感知不到 Heartbeat 的存在。它像人的睡眠一样安静地工作——用户第二天打开 App,发现记忆自动变得更有序了。
约束:iOS BGTaskScheduler,仅充电 + 有网络时执行。
比喻:白板写满了 → 睡眠不是擦掉所有内容,而是把笔迹淡化:用力写的还能看见,轻轻写的消失了。
记忆不是录像回放,每次"回忆"都是根据当前语境重新构建的。同一条记忆在不同语境下应有不同呈现。
决定什么时候浮现。地理围栏/时间/周期触发。扩展:结合编码上下文和图式,触发更智能。
决定呈现顺序。超市时购物排前,深夜时 THOUGHT 排前,早晨 ACTION 排前。
同一条记忆的展示内容根据语境变化。预生成多个"重建视角"缓存。
从扁平结构到仿生架构,不能"大爆炸"重构。每步必须:独立有价值、向下兼容、可验证、可回滚。
六步详情见下方"演化路线图"区块。
从扁平存储到闭环自适应,LLM 依赖度从 100% 降至 20%。六步包含 Step 2a(Gateway 路由)和 Step 2b(图式 + Heartbeat)。点击展开每步详情。
仿生架构的本质是 LLM 角色的渐进转变——从不可或缺的引擎,到偶尔咨询的战略家。
| 阶段 | LLM 调用/月 | 模型 | 月成本 |
|---|---|---|---|
| 当前 | 150 | Haiku | ~$0.15 |
| 阶段 1 | 150(更轻量) | Haiku | ~$0.10 |
| 阶段 2 | ~30(仅新模式) | Haiku | ~$0.03 |
| 阶段 3 | ~4(周批量) | Sonnet/Opus | ~$0.20 |
关键洞察:阶段 3 总成本可能更高——但钱花在了刀刃上。Sonnet/Opus 做高阶分析,而非 Haiku 做基础分类。
图式系统让 Kept 在 LLM 供应商之间更灵活。80% 的记忆处理在端侧完成,与云端无关。剩余 20% 可灵活选择 Claude / GPT / Gemini / 端侧小模型。Kept 的护城河不是 LLM 能力,是基于时间积累的记忆结构。
每一个工程决策背后都有认知科学的理论支撑。
| 工程机制 | 认知科学对应 | 映射关系 |
|---|---|---|
| 编码上下文字段 | 编码特异性原则 | 记录创建时的多维语境 |
| Gateway 快速路径 | 系统 1 自动加工 | 模式匹配,无需深度推理 |
| Gateway 完整路径 | 系统 2 控制加工 | 新模式需要 LLM 全量推理 |
| 模式缓存学习 | 自动化的习得过程 | 重复后从控制加工转为自动加工 |
| 图式涌现 | 图式理论 + MOPs | 从经验中抽象出高阶认知结构 |
| Heartbeat 巩固 | 睡眠记忆巩固 | 后台重组、模式发现、知识整合 |
| DecayService 衰减 | 突触稳态假说 | 等比缩小,保留强连接 |
| 图式动态更新 | 记忆再巩固 | 被激活的图式重新进入可修改状态 |
| 检索重建引擎 | 记忆重建理论 | 根据当前语境重建记忆呈现 |
| 通知聚合 | 图式激活检索 | 活跃图式驱动关联记忆聚合 |
五个阶段,每步独立可用、可验证、可回滚。
iOS 端:Core Data migration (Kept_v4) 新增 7 个 optional 编码上下文字段。新建 EncodingContextService.swift 采集位置/时间/活动/前序记忆/录入方式。
API 端:/process 接受 optional encoding_context,传入 LLM prompt 的 [编码上下文] 部分。
验证:录入记忆后检查 Core Data 中字段是否正确填充;对比有/无上下文时 LLM 分类结果差异。
服务端:新建 pattern-cache.js(PatternCache 类:load/save/match/learn)。/process 端点增加路由逻辑:先查缓存 → confidence ≥ 0.9 快速路径 / 0.6-0.9 确认路径 / < 0.6 完整路径。新增 CONFIRM_PROMPT(比 SYSTEM_PROMPT 短 ~70%)。
验证:同类记忆录入 5+ 条后新记忆是否走快速路径;对比快速路径 vs 完整路径的结果一致性。
iOS 端:Core Data migration (Kept_v5) 新增 MemorySchema 实体。新建 SchemaDetector.swift(聚类算法 + LLM 批量命名)、DecayService.swift(衰减率 0.95/次 + 抗衰减因素)、HeartbeatScheduler.swift(BGTaskScheduler,充电 + 有网络时执行)。
ThoughtThread 泛化:提取通用图式逻辑,ThoughtThread 成为 MemorySchema(category: "thought") 的视图。
验证:模拟器录入 10+ 条同类记忆验证图式发现;测试 Heartbeat 调度执行;验证衰减曲线合理性。
新增:RetrievalEngine.swift(语境化排序:图式激活权重 × 时间衰减 × 语境匹配度),通知聚合(同图式多条记忆聚合为一条通知),Widget 动态排序,HomeView 按图式分组展示。
效果:用户在超市收到 1 条"家里缺几样东西"的聚合通知,而非 3 条独立通知。
验证:通知点击率是否提升;Widget 记忆完成率;用户满意度。
闭环:用户完成记忆 → 图式 confidence += 0.02;忽略/删除 → confidence -= 0.05。图式反哺编码:新记忆自动关联最可能的图式。高置信度匹配可跳过 LLM 调用。跨图式关联发现(Schank TOPs)。
目标:日常 100% 图式匹配,0% LLM。周批量用 Opus 做图式审查、跨域发现。
理论:Nader et al. 记忆再巩固 (2000),Schank TOPs 跨域组织 (1982)。
"结构即智能。当存储结构本身能承载模式和关联时,LLM 的角色从'全量推理引擎'优雅地退化为'确认与微调顾问'——系统变得更快、更便宜、更不可替代。工程需要理论作为坚实依赖。"