五种记忆类型(ACTION / KNOWLEDGE / INTENT / RECURRING / THOUGHT)的认知科学、人类学与社会学理论依据。
| 类型 | 定义 | 例子 |
|---|---|---|
| ACTION | 明确的待办行动 | "买盐"、"问老张合同进展" |
| KNOWLEDGE | 需要记住的事实信息 | "护照在第二个抽屉" |
| INTENT | 模糊的意图/愿望 | "想试那家新开的日料" |
| RECURRING | 周期性事务 | "每周五交周报" |
| THOUGHT | 反思、想法、感悟 | "觉得最近应该多运动" |
Endel Tulving 提出五层长期记忆系统:
映射:
关键洞察: Tulving 的框架是回顾性的(如何存储和检索过去),而 Kept 本质上是一个前瞻性记忆系统(记住将来要做的事)。ACTION、INTENT、RECURRING 在 Tulving 框架中没有直接对应物——这不是缺陷,是维度不同。
识别的缺口: 情景记忆("上次跟老张吃饭他说了个很好的建议")没有专属类型。用户可能用 KNOWLEDGE 或 THOUGHT 来承载,但严格来说它既不是事实也不是反思,而是对一个事件的记忆。MVP 阶段可接受,长期值得关注。
参考:Tulving, E. (1972). "Episodic and semantic memory." In Organization of Memory; Tulving, E. (1985). "How many memory systems are there?" American Psychologist, 40(4), 385-398.
前瞻性记忆(Prospective Memory)是"记住去记住"——在未来执行已计划行动的认知能力。这是与 Kept 最直接相关的理论框架,因为 Kept 本质上是一个前瞻性记忆假体。
按触发类型分类:
映射:
识别的缺口: 活动型前瞻性记忆("开完会之后给老板发邮件")缺乏适当的触发机制——它既不是时间型也不是地点型,而是序列型。这是触发系统的缺口,不是类型系统的缺口。
参考:Brandimonte, M.A., Einstein, G.O., & McDaniel, M.A. (Eds.) (1996). Prospective Memory: Theory and Applications. Routledge.
Peter Gollwitzer 区分了两种意图:
研究发现执行意图对目标完成的效应量为 d = 0.61(中到大效应)。这意味着同样一件"想做的事",有具体计划的比只有模糊愿望的完成率显著更高。
这直接验证了 ACTION 和 INTENT 的区分: 它们不是主观的分类偏好,而是有不同完成动力学的认知状态。系统应该对它们采取不同的行为——ACTION 积极触发提醒,INTENT 被动等待合适时机浮现。
参考:Gollwitzer, P.M. (1999). "Implementation Intentions: Strong Effects of Simple Plans." American Psychologist, 54(7), 493-503.
Martin Conway 的模型将自传体记忆组织为层级结构:
这些都在工作自我(working self)之下组织——一组活跃的目标和自我形象,调节哪些记忆可被访问。
关键洞察: Conway 的模型暗示记忆不是孤立的条目,而是存在于目标层级中。"买盐"之所以被记住,是因为它服务于"做今晚的饭",进而服务于"照顾好家人"。Kept 目前将每条记忆视为原子单位。MVP 可接受,但理论框架表明:将记忆连接到更高阶目标,能显著提升系统判断何时提醒的智能程度。
THOUGHT 类型在 Conway 的框架中定位清晰:它是工作自我的自我叙事碎片——塑造未来行动和意图的元认知元素。
参考:Conway, M.A. (2005). "Memory and the Self." Journal of Memory and Language, 53(4), 594-628.
Roger Schank 提出四层记忆组织:
Schank 的核心创新:记忆不是按内容类别组织的,而是按目标结构和预期失败组织的。
关键洞察: Schank 的主题组织点(TOPs)——连接看似无关经验的抽象模式——是重要的记忆结构。例如,"公司推行新流程遇到抵抗"和"让孩子养成新习惯也很难"可以被 TOP "变革阻力"连接。Kept 目前没有跨记忆主题链接机制。这对 THOUGHT 类型尤其重要——想法通过连接获得价值。
参考:Schank, R.C. (1999). Dynamic Memory Revisited. Cambridge University Press.
Henri Bergson 区分了:
RECURRING 的定位: 用户外化周期性事务,恰恰是因为它还没有变成可靠的习惯记忆。如果真的已经自动化了,就不需要提醒。RECURRING 捕捉的正是「有意识意图 → 自动化习惯」的过渡地带。当一个 RECURRING 项目不再被需要时,意味着它已经沉淀为习惯记忆——这本身就是成功。
参考:Bergson, H. (1896). Matière et mémoire. PUF.
Maurice Halbwachs 认为个人记忆本质上是社会性的——我们在"社会框架"(家庭、宗教、阶级)中记忆。记忆不是私人金库,而是社会建构和维护的活动。
对 Kept 的启示:
许多记忆天然是关系性的——"老张说他下周出差"涉及的是老张的状态,不只是用户的任务。Kept
的 person
触发类型部分解决了这个问题,但类型系统没有区分"我的任务"和"关于他人的信息"。
参考:Halbwachs, M. (1950). La mémoire collective. PUF.
Jan Assmann 区分:
Kept 处于两者之间——它将沟通记忆(随口说的话)形式化为持久存储,但保持了非正式的语气和个人性质。
参考:Assmann, J. (2008). "Communicative and Cultural Memory." In Cultural Memory Studies.
Daniel Wegner 发现情侣和团队会分布式记忆——每个人记住「谁知道什么」而不是记住全部。情侣在回忆任务中优于陌生人,因为他们有互补的记忆领域和有效的相互检索线索。
Kept 本质上就是用户的交互记忆伙伴。 用户记得"我跟 Kept 说过这件事",需要时通过 Kept 检索。这不是比喻——这就是交互记忆的定义。
设计启示:
参考:Wegner, D.M. (1985). "Transactive Memory: A Contemporary Analysis of the Group Mind." In Theories of Group Behavior. Springer.
| GTD 类别 | Kept 类型 | 匹配度 |
|---|---|---|
| Next Actions(下一步行动) | ACTION | 强 |
| Projects(项目) | (无) | 缺口 — 多步骤目标无法表达 |
| Waiting For(等待中) | (无) | 缺口 — "等老张回复合同"归 ACTION 不准确 |
| Someday/Maybe(也许某天) | INTENT | 强 |
| Reference(参考资料) | KNOWLEDGE | 强 |
| Calendar(日历) | RECURRING / ACTION+时间触发 | 强 |
| PARA 类别 | Kept 类型 | 匹配度 |
|---|---|---|
| Projects(项目) | ACTION(部分) | 弱 |
| Areas(责任领域) | (无) | 缺口 — "健康"、"家庭"是组织上下文,不是记忆条目 |
| Resources(资源) | KNOWLEDGE, THOUGHT | 中 |
| Archives(归档) | Kept 的 archived 状态 |
由状态系统处理 |
Luhmann 的系统建立在密集互联的原子笔记之上。核心原则:价值来自笔记之间的连接,不来自单条笔记本身。
THOUGHT 类型在 Zettelkasten 中对应「闪念笔记(fleeting notes)」——在发展为永久笔记之前捕捉的碎片。Zettelkasten 的启示是:THOUGHT 的长期价值取决于它能否与其他记忆建立连接。
参考:Ahrens, S. (2017). How to Take Smart Notes. Sönke Ahrens.
| 类型 | 理论来源 | 验证强度 |
|---|---|---|
| ACTION | Gollwitzer 执行意图 + 前瞻性记忆 | ★★★ 实证验证 |
| INTENT | Gollwitzer 目标意图 + GTD Someday/Maybe | ★★★ 实证验证 |
| KNOWLEDGE | Tulving 语义记忆 + GTD Reference | ★★★ 经典理论 |
| RECURRING | 习惯性前瞻记忆 + Bergson 习惯记忆过渡 | ★★★ 哲学+认知双重验证 |
| THOUGHT | Conway 工作自我 + Zettelkasten 闪念 + Gollwitzer 前意图态 | ★★☆ 多框架交叉验证,无单一直接对应 |
| 缺口 | 理论来源 | 例子 | MVP | 长期 |
|---|---|---|---|---|
| 情景记忆 | Tulving | "上次和老张吃饭聊的项目" | 低 | 中 |
| 委托/等待 | GTD | "等老张回复合同" | 中 | 中 |
| 项目/多步骤 | GTD, Conway, Schank | "准备搬家" | 低 | 高 |
| 关系记忆 | Halbwachs, Wegner | "妈妈喜欢吃桂花糕" | 低 | 中 |
| 记忆间连接 | Zettelkasten, Schank TOPs | "想多运动" ↔︎ "办了健身卡" | 无 | 高 |
五种类型对 MVP 充分且有理论基础。
建议的演化路径:
delegated: true),不需要新类型ideabamboo 是一个专注于捕捉日常工作想法的项目。创始动机:每天关于工作的 idea 太多,一闪而过就丢失。通过记录 → 关联 → 形成上下文,最终能够推导出意图和行动。产品形态是一个大型画布,有图形、关联指针、线条、结构。
ideabamboo 验证的需求链:
碎片想法 → 关联 → 上下文 → 推导出意图 → 推导出行动
这恰好映射 Gollwitzer 描述的认知演化路径:
THOUGHT(前意图态)→ INTENT(目标意图)→ ACTION(执行意图)
这意味着 Kept 的五种类型不只是并列分类——THOUGHT → INTENT → ACTION 可能是同一条记忆的生命周期。 一个想法被说出来的时候是 THOUGHT,沉淀够了变成 INTENT,具体化之后变成 ACTION。
| ideabamboo | Kept | |
|---|---|---|
| 用户操作 | 主动画布、手动连线、结构化 | 说一句话就走 |
| 关联方式 | 用户显式创建 | AI 自动发现 |
| 呈现形式 | 图形、指针、线条 | 隐形,用户感知不到 |
| 适合人群 | 喜欢思维导图的知识工作者 | 所有人 |
| 哲学 | 工具思维 — 给用户一个强大的画布 | 记忆思维 — 用户不需要整理,AI 替你发现 |
两者验证的是同一个真理:想法的价值在于连接,不在于单条。 差异在于谁来做连接的工作。
1. 想法会沉淀成行动(→ P2.4 THOUGHT 关联与合并)
用户连续说了三次关于运动的 THOUGHT → AI 检测到主题聚合 → 主动浮现:"你最近一直在想运动的事,要不要设个具体计划?"这就是 THOUGHT 自动演化为 INTENT 甚至 ACTION。
2. 关联比单条更有价值(→ Schank TOPs + Zettelkasten)
"觉得团队沟通有问题" + "老张最近总加班" + "上周会议效率很低" → AI 发现它们指向同一个主题。不需要画布和线条,在对的时机浮现一句:"你最近提到好几次团队协作的事。"
3. 上下文能推导意图(→ P2.5 人格系统)
积累足够的 THOUGHT 后,AI 能推断用户在乎什么领域。这直接喂给人格系统——不是通过问卷,而是从 THOUGHT 的沉淀中涌现。
ideabamboo 的画布要求用户主动思考和整理。Kept 绝不能走这条路。
设计检验 #8:这个功能在帮用户思考,还是在替用户思考?
Kept 的答案:既不替用户思考,也不要求用户思考。 用户只管说,AI 在后面悄悄把碎片连起来,等到有价值的时候才浮现。连接是 AI 的工作,不是用户的负担。
在构建 Kept 的过程中,产品思考本身就不断产生跨域关联:Kept 价值观 ↔︎ Anthropic Constitutional AI、ideabamboo ↔︎ THOUGHT 演化、Wegner 交互记忆 ↔︎ Kept 的产品定位。这种关联能力恰恰是 Kept 最终要为用户的 THOUGHT 实现的能力。
AI 做关联不是单一机制,而是三个不同层次:
把文本映射到高维空间(如 1536 维),语义相近的内容在空间中距离近。
"盐没了" → [0.23, -0.15, 0.87, ...]
"酱油快用完了" → [0.25, -0.12, 0.84, ...] ← 距离近
"护照在抽屉" → [0.71, 0.43, -0.22, ...] ← 距离远
能发现相似性——"这两条都跟购物有关"。适合 THOUGHT 主题聚类。
局限: 向量做不了跨域类比。"Kept 价值观"和"Constitutional AI"在向量空间未必相近——一个是产品设计,一个是 AI 安全。能关联它们是因为抽取了结构性同构("都是用宪法约束行为"),这不是相似性问题。
特点: 便宜、快、可以端侧运行(Core ML 模型)。
LLM 处理文本时,每个词都在动态"注意"上下文中的所有其他词。这不是固定的向量距离,而是上下文相关的动态关联。
当 Claude 看到"盐没了":
这比向量高级——它能理解关系和因果。"盐没了"和"去超市"在向量空间未必相近,但 attention 能建立"因为...所以..."的推理链。
这就是 Kept prompt v2.4 意图识别的工作机制。
跨域类比——把 A 领域的结构映射到 B 领域。例如把 Constitutional AI 的"宪法约束 AI 行为"映射到"价值观约束产品决策"。
机制不是显式的向量搜索或单步 attention,而是训练过程中从海量文本学到的抽象结构模式的涌现。本质上是:A 的结构 ≈ B 的结构,即使 A 和 B 的内容完全不同。
特点: 需要 LLM 调用,昂贵,但能产生真正的洞察。
| 关联层次 | 机制 | Kept 应用场景 | 阶段 |
|---|---|---|---|
| 相似性 | 向量嵌入 | THOUGHT 主题聚类("三条都跟运动有关") | P2.4 |
| 因果推理 | LLM Attention | 意图识别("盐没了" → 购物意图) | 已实现(v2.4) |
| 跨域类比 | LLM 涌现能力 | THOUGHT 深层洞察("你最近的几个想法都指向同一个方向") | P3+ |
第一层(向量)解决"哪些记忆相似"——这是 P2.4 THOUGHT 关联的技术基础。
第二层(attention)解决"这条记忆意味着什么"——这是当前意图识别已经在用的。
第三层(类比)解决"这些记忆组合起来说明什么"——这是 Kept 最终要达到的境界。用户每天随口说的碎片,积累到一定量后,AI 能发现用户自己都没意识到的模式。
产品创始人在构建产品时做的跨域关联(ideabamboo ↔︎ THOUGHT 演化、Constitutional AI ↔︎ 产品宪法),其实就是 Phase 3 里 Kept 最终要学会为用户做的事。区别是人靠直觉和经验,Kept 靠积累足够的 THOUGHT 后让 LLM 发现模式。
Kept = 记住 + 浮现 (Phase A — 当前)
Kept = 记住 + 浮现 + 克制的理解 (Phase C+ — 未来)
↑
受宪法严格约束
"理解"意味着 Kept 不只是存储和检索记忆,而是能从碎片的积累中发现模式、关联和趋势。但这个能力必须被严格约束。
危险一:"你凭什么"效应
当 AI 表现出对用户的深层理解时,用户的第一反应往往不是感动,而是不适。这是认知安全的本能反应——"这个东西怎么这么了解我?"
这类似恐怖谷效应(Uncanny Valley):机器人越像人越让人不安,AI 越"懂你"越让人警觉。在恐怖谷的另一边是真正的信任——但跨越这个谷需要极其漫长的信任积累,不能跳跃。
危险二:情感依赖
Character.ai、Replika 等产品的前车之鉴:用户与 AI 虚拟角色的"理解"产生情感联结。这是:
危险三:与 LLM 能力重合
理解是大模型的核心能力。Kept 在"理解"维度与 LLM 竞争没有意义。Kept 的不可替代性在于带上下文的记忆,不在于通用理解力:
LLM:有理解力,没有记忆(每次对话从零开始)
Kept:有记忆,借用 LLM 的理解力
→ 提供的是带时间/地点/人物上下文的理解
→ 任何 LLM 都能理解"盐没了"是购物意图
→ 但只有 Kept 知道你三天前说过、你经常去哪个超市、你现在正好路过
原则:理解体现在行为精准度上,不体现在表达上。懂你但不说破。
| 情境 | 克制的理解(对) | 越界的理解(错) |
|---|---|---|
| 用户多次提到运动 | 在附近有健身房时,安静地把相关记忆排到 Widget 前面 | "我注意到你最近提了 5 次运动,要不要制定个计划?" |
| 用户总在深夜录入 | 把非紧急提醒推迟到上午 | "你最近总是深夜还在想事情,注意休息哦" |
| 用户的 THOUGHT 指向同一主题 | 下次该主题的 ACTION 触发时,关联浮现相关 THOUGHT | "根据你的思考模式,我建议你..." |
核心区分: 克制的理解改变的是系统行为(触发时机、排序、关联),不改变面向用户的表达。用户感受到的是"它越来越好用",不是"它越来越了解我"。
理解能力是核燃料,宪法是控制棒:
没有宪法约束的"理解"会让用户感到恐怖谷效应,最终关掉通知、卸载产品——产品就死了。
克制的理解主要作用于 THOUGHT 类型:
永远不做:
Core Data 单表 MemoryEntity,极简扁平结构:
MemoryEntity
├── id: UUID
├── type: String ← "ACTION" / "KNOWLEDGE" / "INTENT" / "RECURRING" / "THOUGHT"
├── rawText: String ← 用户原始语音转写
├── displayText: String ← AI 生成的简短展示文本(≤15字)
├── emoji: String?
├── confidence: Double
├── triggersData: Binary ← JSON 序列化的 [Trigger] 数组
├── peopleData: Binary ← JSON 序列化的 [String] 数组
├── status: String ← "active" / "done" / "dormant" / "archived"
├── createdAt: Date
└── content: String? ← THOUGHT 类型的结构化内容
设计决策:triggers 和 people 用 Binary 存 JSON,不拆关系表。MVP 阶段记忆数量在几百条量级,这个结构完全够用。
向量化与第六节"AI 关联机制"的三层结构一一对应:
第一层:关键词/规则匹配(已实现)
trigger 里的 location/time/person 就是结构化匹配。不需要向量,Core Data predicate 直接查询。覆盖 ACTION、RECURRING 的绝大部分场景。
第二层:语义向量(P2.4 需要)
用于 THOUGHT 之间的相似度检测、主题聚类——对应第五节"THOUGHT 的演化假说"里描述的关联发现。
端侧向量生成方案比较:
| 方案 | 优势 | 劣势 |
|---|---|---|
| Apple NLEmbedding | 系统内置、零延迟、支持中文、完全端侧 | 维度低(128d)、中文质量一般 |
| Core ML 自定义模型 | 质量高(multilingual-e5-small 等) | 需打包模型(~100MB)、首次加载慢 |
| 云端生成 + 本地存储 | 质量最高、模型可升级 | 依赖网络,与端侧隐私原则有张力 |
建议路径: P2.4 先用 Apple NLEmbedding — 零成本、无网络依赖、完全符合宪法 #6 隐私底线。记忆数量在几百条以内时,128d 向量 + 暴力余弦相似度搜索(O(n))完全够用。等用户量和记忆量上来后再评估 Core ML 自定义模型。
第三层:因果/类比推理(P3+)
"盐没了"和"上次去超市买的东西"之间的关联不是语义相似,是因果链。这层不靠向量,靠 LLM 推理。远期可借助端侧小模型(Apple 在 iOS 19/26 的端侧 LLM 动向值得关注)。
THOUGHT 关联与合并需要在 MemoryEntity 上新增字段:
MemoryEntity(P2.4 新增)
├── embedding: Binary? ← [Float] 序列化,128d(NLEmbedding)或 384d(e5-small)
├── embeddingModel: String? ← "NLEmbedding-zh" / "e5-small",标记生成模型以备升级
├── linkedMemories: Binary? ← 关联记忆 ID 列表 [UUID](JSON 序列化)
└── clusterID: String? ← 主题聚类标识(THOUGHT 合并用)
embeddingModel
字段确保未来切换更好的向量模型时,可以标记哪些需要重新生成端侧存储策略体现了 Wegner 交互记忆理论(2.3 节)的核心要求:
存储结构的极简性本身就是产品哲学的体现——用户说一句话,系统理解并存储,不需要用户参与任何数据组织。