后台智能
Nowledge Mem 在你不用它的时候做了什么,以及防止它浪费资源的保护机制。
Mem 里大部分有用的工作都在后台完成。实体提取、EVOLVES 检测、矛盾标记、知识结晶合成、工作记忆更新,都不需要你动手。你存一条记忆或导入一段对话,剩下的系统来。
这个页面讲跑了什么、什么时候跑、怎么防止失控。
两类触发方式
后台任务按触发方式分为两类。
定时任务
按固定时间运行,和你今天做了什么无关。
- 每日简报,每天清晨。回顾近期活动,生成洞察,标记矛盾,在
~/ai-now/memory.md写一份新的工作记忆。Claude Code、Cursor 这些智能体读你的上下文时,看到的就是这个文件。 - 结晶审查,每周一次。找出可以合成为知识结晶的相关记忆集群。
- 洞察检测,每周一次。在知识库里搜索跨领域关联和模式。
- 记忆压缩,每周一次。识别可以整合的低价值集群。
- 社区检测,定期运行。重建实体图谱的社区结构,供搜索使用。
- 衰减刷新,每天运行。重新计算所有记忆的衰减和置信分数。
事件驱动任务
这些因为你做了某件事而触发,有一个短暂的延迟。
- EVOLVES 检测:保存新记忆时触发。检查新记忆是替代、丰富、印证还是质疑了已有知识。详见知识演化。
- 实体提取:同步触发。为知识图谱提取实体和关系。
- 工作记忆刷新:新记忆到达时触发。更新
~/ai-now/memory.md,让连接的智能体尽快看到新上下文。 - 集群评估:EVOLVES 边创建后触发。看新集群是否达到了结晶的形成条件。
级联
这些任务不是独立的,一个动作可以触发一整条链。
你存一条记忆 → EVOLVES 检测跑起来 → 发现和一条旧记忆的"印证"关系 → 集群评估触发 → 发现三条相关记忆构成了足够强的集群 → 知识结晶被创建。
每一步都有自己的延迟窗口,系统是攒一批再处理。连续存五条记忆,系统会放在一起分析,不会跑五遍。
四层保护
后台智能消耗 LLM token。没有限制的话,一波密集操作可能耗尽 token 预算,或者赶工太多产出低质量结果。四层机制防住这个。
防抖:事件驱动任务执行前等一段时间。等待期间又来了同类事件,计时器重置。导入一个长对话时,系统不会每条消息都分析一遍,而是合并成一次。
频率限制:每小时能跑的 LLM 任务有上限。超了就延迟,不丢弃。
Token 预算:可以设每小时和每天的 token 上限。预算花完后 LLM 任务暂停到下一个周期。不用 LLM 的任务(衰减刷新、社区检测)不受影响。
质量门控:抑制低价值输出。每日简报如果产出零洞察、零结晶、零标记,就保持沉默,不会生成一张"无事可报"的卡片。洞察检测会比对过去两周的记录避免重复。结晶至少需要三个汇聚来源。
上下文注入
每个后台任务启动前会收到预算好的上下文。每日简报拿到的是过去一周的活动摘要、昨天的工作记忆、图谱统计和最近的矛盾解决记录。省掉 LLM 自己探索的步骤,直接聚焦。
上下文有大小上限,超了就先裁低优先级的部分。
工作记忆
工作记忆是每日简报最直接的产出。每天早上归档昨天的,基于近期活动写一份新的。
文件在 ~/ai-now/memory.md。任何通过 MCP 连接的智能体都能读。Claude Code、Cursor、Codex 这些工具了解你最近在做什么、做了什么决定,靠的就是这个文件。
白天也会更新。存了新记忆后系统会刷新它,延迟比其他事件驱动任务长一些(因为跑一次成本更高)。你也可以手动编辑。
设置
每个后台任务都有独立的开关。你可以关掉 EVOLVES 检测但保留每日简报,或者禁用洞察检测但保留实体提取。总开关可以一次性关闭全部。
Token 预算和调度参数(简报时间、社区检测间隔)也可以配置。后台智能需要配置远程 LLM,因为任务在你的机器上运行,需要一个模型来推理。