记忆类型的理论基础

五种记忆类型(ACTION / KNOWLEDGE / INTENT / RECURRING / THOUGHT)的认知科学、人类学与社会学理论依据。


五种类型

类型 定义 例子
ACTION 明确的待办行动 "买盐"、"问老张合同进展"
KNOWLEDGE 需要记住的事实信息 "护照在第二个抽屉"
INTENT 模糊的意图/愿望 "想试那家新开的日料"
RECURRING 周期性事务 "每周五交周报"
THOUGHT 反思、想法、感悟 "觉得最近应该多运动"

一、认知科学基础

1.1 Tulving 的记忆系统分类(1972, 1985)

Endel Tulving 提出五层长期记忆系统:

  1. 程序性记忆 — 运动技能、习惯(无法外化,与 Kept 无关)
  2. 启动效应 — 先前暴露对感知的促进(无意识,与 Kept 无关)
  3. 知觉记忆 — 基于形式的刺激识别(无意识,与 Kept 无关)
  4. 语义记忆 — 脱离上下文的一般性事实和知识
  5. 情景记忆 — 主观地重新体验时间和地点中的个人事件

映射:

关键洞察: Tulving 的框架是回顾性的(如何存储和检索过去),而 Kept 本质上是一个前瞻性记忆系统(记住将来要做的事)。ACTION、INTENT、RECURRING 在 Tulving 框架中没有直接对应物——这不是缺陷,是维度不同。

识别的缺口: 情景记忆("上次跟老张吃饭他说了个很好的建议")没有专属类型。用户可能用 KNOWLEDGE 或 THOUGHT 来承载,但严格来说它既不是事实也不是反思,而是对一个事件的记忆。MVP 阶段可接受,长期值得关注。

参考:Tulving, E. (1972). "Episodic and semantic memory." In Organization of Memory; Tulving, E. (1985). "How many memory systems are there?" American Psychologist, 40(4), 385-398.

1.2 前瞻性记忆理论(Einstein, McDaniel, Brandimonte, 1996)

前瞻性记忆(Prospective Memory)是"记住去记住"——在未来执行已计划行动的认知能力。这是与 Kept 最直接相关的理论框架,因为 Kept 本质上是一个前瞻性记忆假体。

触发类型分类:

映射:

识别的缺口: 活动型前瞻性记忆("开完会之后给老板发邮件")缺乏适当的触发机制——它既不是时间型也不是地点型,而是序列型。这是触发系统的缺口,不是类型系统的缺口。

参考:Brandimonte, M.A., Einstein, G.O., & McDaniel, M.A. (Eds.) (1996). Prospective Memory: Theory and Applications. Routledge.

1.3 Gollwitzer 的意图理论(1999)— ACTION vs INTENT 的核心依据

Peter Gollwitzer 区分了两种意图:

研究发现执行意图对目标完成的效应量为 d = 0.61(中到大效应)。这意味着同样一件"想做的事",有具体计划的比只有模糊愿望的完成率显著更高。

这直接验证了 ACTION 和 INTENT 的区分: 它们不是主观的分类偏好,而是有不同完成动力学的认知状态。系统应该对它们采取不同的行为——ACTION 积极触发提醒,INTENT 被动等待合适时机浮现。

参考:Gollwitzer, P.M. (1999). "Implementation Intentions: Strong Effects of Simple Plans." American Psychologist, 54(7), 493-503.

1.4 Conway 的自我记忆系统(2000, 2005)

Martin Conway 的模型将自传体记忆组织为层级结构:

  1. 生命周期 — 主题性时代("大学时期"、"在北京工作那几年")
  2. 一般事件 — 周期内的重复或延伸事件("每周和室友打篮球")
  3. 事件特异知识 — 特定时刻的鲜明感知细节

这些都在工作自我(working self)之下组织——一组活跃的目标和自我形象,调节哪些记忆可被访问。

关键洞察: Conway 的模型暗示记忆不是孤立的条目,而是存在于目标层级中。"买盐"之所以被记住,是因为它服务于"做今晚的饭",进而服务于"照顾好家人"。Kept 目前将每条记忆视为原子单位。MVP 可接受,但理论框架表明:将记忆连接到更高阶目标,能显著提升系统判断何时提醒的智能程度。

THOUGHT 类型在 Conway 的框架中定位清晰:它是工作自我的自我叙事碎片——塑造未来行动和意图的元认知元素。

参考:Conway, M.A. (2005). "Memory and the Self." Journal of Memory and Language, 53(4), 594-628.

1.5 Schank 的动态记忆 / MOPs(1982, 1999)

Roger Schank 提出四层记忆组织:

  1. 事件记忆 — 具体情节
  2. 通用事件记忆 — 脚本/刻板序列
  3. 情境记忆 — 记忆组织包(MOPs),将场景组合为目标
  4. 意图记忆 — 围绕计划和目标组织的记忆

Schank 的核心创新:记忆不是按内容类别组织的,而是按目标结构预期失败组织的。

关键洞察: Schank 的主题组织点(TOPs)——连接看似无关经验的抽象模式——是重要的记忆结构。例如,"公司推行新流程遇到抵抗"和"让孩子养成新习惯也很难"可以被 TOP "变革阻力"连接。Kept 目前没有跨记忆主题链接机制。这对 THOUGHT 类型尤其重要——想法通过连接获得价值。

参考:Schank, R.C. (1999). Dynamic Memory Revisited. Cambridge University Press.

1.6 Bergson 的两种记忆(1896)— RECURRING 的哲学依据

Henri Bergson 区分了:

RECURRING 的定位: 用户外化周期性事务,恰恰是因为它还没有变成可靠的习惯记忆。如果真的已经自动化了,就不需要提醒。RECURRING 捕捉的正是「有意识意图 → 自动化习惯」的过渡地带。当一个 RECURRING 项目不再被需要时,意味着它已经沉淀为习惯记忆——这本身就是成功。

参考:Bergson, H. (1896). Matière et mémoire. PUF.


二、人类学与社会学基础

2.1 Halbwachs 的集体记忆(1925/1950)

Maurice Halbwachs 认为个人记忆本质上是社会性的——我们在"社会框架"(家庭、宗教、阶级)中记忆。记忆不是私人金库,而是社会建构和维护的活动。

对 Kept 的启示: 许多记忆天然是关系性的——"老张说他下周出差"涉及的是老张的状态,不只是用户的任务。Kept 的 person 触发类型部分解决了这个问题,但类型系统没有区分"我的任务"和"关于他人的信息"。

参考:Halbwachs, M. (1950). La mémoire collective. PUF.

2.2 Assmann 的沟通记忆与文化记忆(2008)

Jan Assmann 区分:

Kept 处于两者之间——它将沟通记忆(随口说的话)形式化为持久存储,但保持了非正式的语气和个人性质。

参考:Assmann, J. (2008). "Communicative and Cultural Memory." In Cultural Memory Studies.

2.3 Wegner 的交互记忆(1985)— Kept 最贴切的理论模型

Daniel Wegner 发现情侣和团队会分布式记忆——每个人记住「谁知道什么」而不是记住全部。情侣在回忆任务中优于陌生人,因为他们有互补的记忆领域和有效的相互检索线索。

Kept 本质上就是用户的交互记忆伙伴。 用户记得"我跟 Kept 说过这件事",需要时通过 Kept 检索。这不是比喻——这就是交互记忆的定义。

设计启示:

参考:Wegner, D.M. (1985). "Transactive Memory: A Contemporary Analysis of the Group Mind." In Theories of Group Behavior. Springer.


三、生产力系统对照

3.1 GTD — Getting Things Done(Allen, 2001)

GTD 类别 Kept 类型 匹配度
Next Actions(下一步行动) ACTION
Projects(项目) (无) 缺口 — 多步骤目标无法表达
Waiting For(等待中) (无) 缺口 — "等老张回复合同"归 ACTION 不准确
Someday/Maybe(也许某天) INTENT
Reference(参考资料) KNOWLEDGE
Calendar(日历) RECURRING / ACTION+时间触发

3.2 PARA — 第二大脑(Forte, 2022)

PARA 类别 Kept 类型 匹配度
Projects(项目) ACTION(部分)
Areas(责任领域) (无) 缺口 — "健康"、"家庭"是组织上下文,不是记忆条目
Resources(资源) KNOWLEDGE, THOUGHT
Archives(归档) Kept 的 archived 状态 由状态系统处理

3.3 Zettelkasten — 卡片笔记法(Luhmann)

Luhmann 的系统建立在密集互联的原子笔记之上。核心原则:价值来自笔记之间的连接,不来自单条笔记本身。

THOUGHT 类型在 Zettelkasten 中对应「闪念笔记(fleeting notes)」——在发展为永久笔记之前捕捉的碎片。Zettelkasten 的启示是:THOUGHT 的长期价值取决于它能否与其他记忆建立连接。

参考:Ahrens, S. (2017). How to Take Smart Notes. Sönke Ahrens.


四、综合评估

理论验证总结

类型 理论来源 验证强度
ACTION Gollwitzer 执行意图 + 前瞻性记忆 ★★★ 实证验证
INTENT Gollwitzer 目标意图 + GTD Someday/Maybe ★★★ 实证验证
KNOWLEDGE Tulving 语义记忆 + GTD Reference ★★★ 经典理论
RECURRING 习惯性前瞻记忆 + Bergson 习惯记忆过渡 ★★★ 哲学+认知双重验证
THOUGHT Conway 工作自我 + Zettelkasten 闪念 + Gollwitzer 前意图态 ★★☆ 多框架交叉验证,无单一直接对应

缺口及其严重性

缺口 理论来源 例子 MVP 长期
情景记忆 Tulving "上次和老张吃饭聊的项目"
委托/等待 GTD "等老张回复合同"
项目/多步骤 GTD, Conway, Schank "准备搬家"
关系记忆 Halbwachs, Wegner "妈妈喜欢吃桂花糕"
记忆间连接 Zettelkasten, Schank TOPs "想多运动" ↔︎ "办了健身卡"

结论

五种类型对 MVP 充分且有理论基础。

建议的演化路径:

  1. 短期:「等待/委托」可作为 ACTION 的状态标记(delegated: true),不需要新类型
  2. 中期:记忆间连接(路线图 P2.4 THOUGHT 关联与合并)
  3. 长期:项目/目标层级、关系记忆索引

五、THOUGHT 的演化假说 — ideabamboo 的启发

背景

ideabamboo 是一个专注于捕捉日常工作想法的项目。创始动机:每天关于工作的 idea 太多,一闪而过就丢失。通过记录 → 关联 → 形成上下文,最终能够推导出意图和行动。产品形态是一个大型画布,有图形、关联指针、线条、结构。

核心洞察:类型不只是分类,可能是生命周期

ideabamboo 验证的需求链:

碎片想法 → 关联 → 上下文 → 推导出意图 → 推导出行动

这恰好映射 Gollwitzer 描述的认知演化路径:

THOUGHT(前意图态)→ INTENT(目标意图)→ ACTION(执行意图)

这意味着 Kept 的五种类型不只是并列分类——THOUGHT → INTENT → ACTION 可能是同一条记忆的生命周期。 一个想法被说出来的时候是 THOUGHT,沉淀够了变成 INTENT,具体化之后变成 ACTION。

Kept vs ideabamboo:同一个真理,不同的做法

ideabamboo Kept
用户操作 主动画布、手动连线、结构化 说一句话就走
关联方式 用户显式创建 AI 自动发现
呈现形式 图形、指针、线条 隐形,用户感知不到
适合人群 喜欢思维导图的知识工作者 所有人
哲学 工具思维 — 给用户一个强大的画布 记忆思维 — 用户不需要整理,AI 替你发现

两者验证的是同一个真理:想法的价值在于连接,不在于单条。 差异在于谁来做连接的工作。

对 Kept Phase 2/3 的具体启发

1. 想法会沉淀成行动(→ P2.4 THOUGHT 关联与合并)

用户连续说了三次关于运动的 THOUGHT → AI 检测到主题聚合 → 主动浮现:"你最近一直在想运动的事,要不要设个具体计划?"这就是 THOUGHT 自动演化为 INTENT 甚至 ACTION。

2. 关联比单条更有价值(→ Schank TOPs + Zettelkasten)

"觉得团队沟通有问题" + "老张最近总加班" + "上周会议效率很低" → AI 发现它们指向同一个主题。不需要画布和线条,在对的时机浮现一句:"你最近提到好几次团队协作的事。"

3. 上下文能推导意图(→ P2.5 人格系统)

积累足够的 THOUGHT 后,AI 能推断用户在乎什么领域。这直接喂给人格系统——不是通过问卷,而是从 THOUGHT 的沉淀中涌现。

红线:宪法约束

ideabamboo 的画布要求用户主动思考和整理。Kept 绝不能走这条路。

设计检验 #8:这个功能在帮用户思考,还是在替用户思考?

Kept 的答案:既不替用户思考,也不要求用户思考。 用户只管说,AI 在后面悄悄把碎片连起来,等到有价值的时候才浮现。连接是 AI 的工作,不是用户的负担。


六、AI 关联机制 — 记忆连接的技术基础

观察

在构建 Kept 的过程中,产品思考本身就不断产生跨域关联:Kept 价值观 ↔︎ Anthropic Constitutional AI、ideabamboo ↔︎ THOUGHT 演化、Wegner 交互记忆 ↔︎ Kept 的产品定位。这种关联能力恰恰是 Kept 最终要为用户的 THOUGHT 实现的能力。

AI 做关联不是单一机制,而是三个不同层次:

第一层:向量相似度(Embedding)

把文本映射到高维空间(如 1536 维),语义相近的内容在空间中距离近。

"盐没了"      →  [0.23, -0.15, 0.87, ...]
"酱油快用完了"  →  [0.25, -0.12, 0.84, ...]  ← 距离近
"护照在抽屉"   →  [0.71, 0.43, -0.22, ...]  ← 距离远

能发现相似性——"这两条都跟购物有关"。适合 THOUGHT 主题聚类。

局限: 向量做不了跨域类比。"Kept 价值观"和"Constitutional AI"在向量空间未必相近——一个是产品设计,一个是 AI 安全。能关联它们是因为抽取了结构性同构("都是用宪法约束行为"),这不是相似性问题。

特点: 便宜、快、可以端侧运行(Core ML 模型)。

第二层:Attention 机制(Transformer 核心)

LLM 处理文本时,每个词都在动态"注意"上下文中的所有其他词。这不是固定的向量距离,而是上下文相关的动态关联

当 Claude 看到"盐没了":

这比向量高级——它能理解关系和因果。"盐没了"和"去超市"在向量空间未必相近,但 attention 能建立"因为...所以..."的推理链。

这就是 Kept prompt v2.4 意图识别的工作机制。

第三层:涌现的类比推理

跨域类比——把 A 领域的结构映射到 B 领域。例如把 Constitutional AI 的"宪法约束 AI 行为"映射到"价值观约束产品决策"。

机制不是显式的向量搜索或单步 attention,而是训练过程中从海量文本学到的抽象结构模式的涌现。本质上是:A 的结构 ≈ B 的结构,即使 A 和 B 的内容完全不同。

特点: 需要 LLM 调用,昂贵,但能产生真正的洞察。

Kept 的三层应用路线

关联层次 机制 Kept 应用场景 阶段
相似性 向量嵌入 THOUGHT 主题聚类("三条都跟运动有关") P2.4
因果推理 LLM Attention 意图识别("盐没了" → 购物意图) 已实现(v2.4)
跨域类比 LLM 涌现能力 THOUGHT 深层洞察("你最近的几个想法都指向同一个方向") P3+

设计启示

第一层(向量)解决"哪些记忆相似"——这是 P2.4 THOUGHT 关联的技术基础。

第二层(attention)解决"这条记忆意味着什么"——这是当前意图识别已经在用的。

第三层(类比)解决"这些记忆组合起来说明什么"——这是 Kept 最终要达到的境界。用户每天随口说的碎片,积累到一定量后,AI 能发现用户自己都没意识到的模式。

产品创始人在构建产品时做的跨域关联(ideabamboo ↔︎ THOUGHT 演化、Constitutional AI ↔︎ 产品宪法),其实就是 Phase 3 里 Kept 最终要学会为用户做的事。区别是人靠直觉和经验,Kept 靠积累足够的 THOUGHT 后让 LLM 发现模式。


七、克制的理解 — 终极定位与危险边界

终极定位的演化

Kept = 记住 + 浮现              (Phase A — 当前)
Kept = 记住 + 浮现 + 克制的理解   (Phase C+ — 未来)
                      ↑
                受宪法严格约束

"理解"意味着 Kept 不只是存储和检索记忆,而是能从碎片的积累中发现模式、关联和趋势。但这个能力必须被严格约束。

为什么理解很危险

危险一:"你凭什么"效应

当 AI 表现出对用户的深层理解时,用户的第一反应往往不是感动,而是不适。这是认知安全的本能反应——"这个东西怎么这么了解我?"

这类似恐怖谷效应(Uncanny Valley):机器人越像人越让人不安,AI 越"懂你"越让人警觉。在恐怖谷的另一边是真正的信任——但跨越这个谷需要极其漫长的信任积累,不能跳跃。

危险二:情感依赖

Character.ai、Replika 等产品的前车之鉴:用户与 AI 虚拟角色的"理解"产生情感联结。这是:

危险三:与 LLM 能力重合

理解是大模型的核心能力。Kept 在"理解"维度与 LLM 竞争没有意义。Kept 的不可替代性在于带上下文的记忆,不在于通用理解力:

LLM:有理解力,没有记忆(每次对话从零开始)
Kept:有记忆,借用 LLM 的理解力
     → 提供的是带时间/地点/人物上下文的理解
     → 任何 LLM 都能理解"盐没了"是购物意图
     → 但只有 Kept 知道你三天前说过、你经常去哪个超市、你现在正好路过

克制的理解长什么样

原则:理解体现在行为精准度上,不体现在表达上。懂你但不说破。

情境 克制的理解(对) 越界的理解(错)
用户多次提到运动 在附近有健身房时,安静地把相关记忆排到 Widget 前面 "我注意到你最近提了 5 次运动,要不要制定个计划?"
用户总在深夜录入 把非紧急提醒推迟到上午 "你最近总是深夜还在想事情,注意休息哦"
用户的 THOUGHT 指向同一主题 下次该主题的 ACTION 触发时,关联浮现相关 THOUGHT "根据你的思考模式,我建议你..."

核心区分: 克制的理解改变的是系统行为(触发时机、排序、关联),不改变面向用户的表达。用户感受到的是"它越来越好用",不是"它越来越了解我"。

宪法作为安全机制

理解能力是核燃料,宪法是控制棒:

没有宪法约束的"理解"会让用户感到恐怖谷效应,最终关掉通知、卸载产品——产品就死了。

对记忆类型系统的启示

克制的理解主要作用于 THOUGHT 类型:

  1. THOUGHT 聚类 — 向量相似度发现主题(第一层关联),但结果不直接展示给用户
  2. THOUGHT → INTENT 演化 — AI 检测到模式后,不是告诉用户,而是在下次相关场景出现时让提醒更精准
  3. 跨类型关联 — THOUGHT 与 ACTION/KNOWLEDGE 的关联用于提升触发精准度,不用于"洞察报告"

永远不做:


八、端侧存储结构与向量化策略

当前存储模型(MVP)

Core Data 单表 MemoryEntity,极简扁平结构:

MemoryEntity
├── id: UUID
├── type: String          ← "ACTION" / "KNOWLEDGE" / "INTENT" / "RECURRING" / "THOUGHT"
├── rawText: String       ← 用户原始语音转写
├── displayText: String   ← AI 生成的简短展示文本(≤15字)
├── emoji: String?
├── confidence: Double
├── triggersData: Binary  ← JSON 序列化的 [Trigger] 数组
├── peopleData: Binary    ← JSON 序列化的 [String] 数组
├── status: String        ← "active" / "done" / "dormant" / "archived"
├── createdAt: Date
└── content: String?      ← THOUGHT 类型的结构化内容

设计决策:triggers 和 people 用 Binary 存 JSON,不拆关系表。MVP 阶段记忆数量在几百条量级,这个结构完全够用。

向量化的三层策略

向量化与第六节"AI 关联机制"的三层结构一一对应:

第一层:关键词/规则匹配(已实现)

trigger 里的 location/time/person 就是结构化匹配。不需要向量,Core Data predicate 直接查询。覆盖 ACTION、RECURRING 的绝大部分场景。

第二层:语义向量(P2.4 需要)

用于 THOUGHT 之间的相似度检测、主题聚类——对应第五节"THOUGHT 的演化假说"里描述的关联发现。

端侧向量生成方案比较:

方案 优势 劣势
Apple NLEmbedding 系统内置、零延迟、支持中文、完全端侧 维度低(128d)、中文质量一般
Core ML 自定义模型 质量高(multilingual-e5-small 等) 需打包模型(~100MB)、首次加载慢
云端生成 + 本地存储 质量最高、模型可升级 依赖网络,与端侧隐私原则有张力

建议路径: P2.4 先用 Apple NLEmbedding — 零成本、无网络依赖、完全符合宪法 #6 隐私底线。记忆数量在几百条以内时,128d 向量 + 暴力余弦相似度搜索(O(n))完全够用。等用户量和记忆量上来后再评估 Core ML 自定义模型。

第三层:因果/类比推理(P3+)

"盐没了"和"上次去超市买的东西"之间的关联不是语义相似,是因果链。这层不靠向量,靠 LLM 推理。远期可借助端侧小模型(Apple 在 iOS 19/26 的端侧 LLM 动向值得关注)。

P2.4 数据模型演进

THOUGHT 关联与合并需要在 MemoryEntity 上新增字段:

MemoryEntity(P2.4 新增)
├── embedding: Binary?        ← [Float] 序列化,128d(NLEmbedding)或 384d(e5-small)
├── embeddingModel: String?   ← "NLEmbedding-zh" / "e5-small",标记生成模型以备升级
├── linkedMemories: Binary?   ← 关联记忆 ID 列表 [UUID](JSON 序列化)
└── clusterID: String?        ← 主题聚类标识(THOUGHT 合并用)

设计原则

  1. 向量是索引,不是记忆 — 向量丢了可以从 rawText 重新生成,rawText 才是不可替代的数据
  2. 本地优先 — NLEmbedding 完全端侧运行,符合宪法 #6 隐私底线和 #7 记忆神圣
  3. 懒生成 — 不需要创建时就向量化所有记忆。P2.4 启动时批量补生成历史记忆,之后新记忆实时生成
  4. 记忆量级决定方案 — 几百条暴力搜索,上万条再考虑 ANN 索引(如 HNSW)。MVP 用户量级下暴力搜索的延迟几乎为零
  5. 模型可升级embeddingModel 字段确保未来切换更好的向量模型时,可以标记哪些需要重新生成

与 Wegner 交互记忆的关系

端侧存储策略体现了 Wegner 交互记忆理论(2.3 节)的核心要求:

存储结构的极简性本身就是产品哲学的体现——用户说一句话,系统理解并存储,不需要用户参与任何数据组织。


参考文献

认知科学

人类学 / 社会学

生产力 / 个人知识管理