知识图谱
把你的知识当一张可被探索、可被审计、可被生成新内容的网络。你可以靠视觉自己翻;也可以把其中一片选区交给 Graph Intelligence,和它一起把问题问下去。
你在 Mem 里保存的所有东西,都活在同一张「超图」知识图谱上:三种知识形态(Trace / Unit / Crystal)落在七种节点、十一种边上,按 渐进式揭露 来设计。先做轻量查询,需要更多上下文时再走实体关系,需要历史时再走版本链,需要全局视角时再去看社区聚类和 Crystal 洞察。
知识图谱视图,就是这张超图从一个隐喻变成你可以平移、可以点击、可以提问的画布。Graph Intelligence 是和你共享这张画布的智能体:你选,它推理;你问,图谱亮起来。整段对话还会沉淀下来,留下可读的产物:知识结晶、报告、可重放的探索会话。
资料库回答的是「我知道什么」。知识图谱回答的是「这些东西怎么连起来、接下来该用它做什么」。
先做这一步
- 从侧边栏打开 Graph 视图,第一屏是 overview,里面是连接最密的记忆、实体、和 Crystal。
- 点任意一个节点;或者直接按 Compute,让 Louvain 检测把整张图按主题聚类上色。
- 打开右栏的 Chat,对着你看到的内容问一句真问题:「这一簇在讲什么?」、「这里哪些地方在自相矛盾?」、「找一下这两个之间的最短路径。」
智能体会读你选中的部分、调用合适的工具、把答案写回这同一张画布。你应该能在不离开图谱的情况下,对你自己的知识问出一个真问题,并拿到回答。
两种使用方式
你自己用视觉去翻
整张图是一个交互式网络。拖拽平移、滚轮缩放、点节点查看详情和邻边。时间轴滑块可以按时间过滤,让你看到一个领域的知识是怎么在几周或几个月里长起来的。按住 Cmd/Ctrl 多选节点;切到套索模式可以画一个区域。点 Compute 跑一次 Louvain 社群检测,图谱会按社群上色,主题结构就直接可见,不再被一千个点埋掉。
和 Graph Intelligence 一起推理
Chat 标签是一位和你共享画布的推理伙伴。你在图谱上选了什么,它读到的就是同一份选区。它每次调用工具都会在画布上实时高亮对应节点,你能跟着它推理、也能审计它推理。
几个常用的问法:
- 选中一个社群,问 「这一簇在讲什么?」。智能体会把这个簇的核心议题总结出来,并交还几条最强的来源。
- 选中一个主题、实体、或者一条记忆,问 「这里哪些地方在自相矛盾?」。智能体会沿着 EVOLVES 链回溯,把彼此打架的版本指出来。
- 多选两个节点,问 「找一下这两个之间的最短路径。」。智能体走过去,把每一跳解释给你听,沿途常常会冒出你自己没注意到的桥节点。
- 选中一个簇,问 「写一份阶段总结。」。智能体会产出一篇结晶或一份报告,最后由你决定是否保留。
这不是「AI 聊聊知识图谱」
几个架构决定加在一起,让它和「外接一个 LLM 聊天的图谱」是两种东西。
冻结上下文,唯一信任源。 当你发出一条消息时,智能体看到的就是你当时盯着的那一张图谱。没有漂移、没有 split-brain、没有需要双向同步的状态镜像。你在它思考时移动画布,它会把新视角带到下一轮里。会话本身(Thread)才是这片探索的唯一信任源。
可视的推理链。 智能体调用的每一个工具都可以发出 canvas 命令:highlight_nodes、highlight_path、select_community。你能看着它的推理过程发生,而不是只拿到一个黑盒答案。如果它说「这条路径经过这三座桥」,那三座桥这时候已经在画布上亮起来了。
产物落进你已经熟悉的界面。 智能体合成出来的结晶,是一条 is_crystal=true 的真实 Memory,进 Memories 视图、进 Library Wiki,自带 [[Entity Name]] wikilink。它写出来的报告或博客草稿,是一份真实的 Source,进资料库、进搜索索引。没有新实体类型要你去理解,所有产物都和你已经在用的界面无缝衔接。
步骤化的探索历史。 每一轮都会把「用户当时冻结的图谱上下文」和「智能体发出的 canvas 命令」一起存进消息元数据里。这意味着探索可以回放、可以中途停下来明天继续、可以分享。这不是一个聊天记录,是一段完整的探索过程。
智能体的能力
二十来个专用工具,按它们替你回答的问题分组:
- 图谱导航。 概念之间的最短路径、
RELATES_TO边的时间感知遍历、选区节点的批量详情查询、邻居展开、社群成员列表。 - 找证据。 一条结晶或一个实体背后的源记忆、EVOLVES 链上一段知识是怎么变化的、支撑某个观点的资料文档、过去你在这个话题上做过的探索会话。
- 结构分析。 选中子图上的 PageRank 中心性、连接两个社群的桥节点、社群摘要(成员数、核心实体、AI 总结)。
- 合成与保存。 由 3 条以上源记忆合成出一个稳定的结晶(自带 wikilink),或者一份更长的报告 / 博客草稿,落到资料库里、进搜索索引、可以再被翻出来读。
你不需要挑工具,你提问,智能体来挑。我们暴露给你的不是工具列表,是一种纪律:它说出来的每一个判断,都能追溯到某条具体的记忆、来源、或对话线程;结晶要求至少三条独立来源;报告要列出依据。
从资料库进来:深入研究
大多数情况下,你不会先开 Graph 视图,而是会先在 资料库 里读着读着,碰到一个想深究的问题。这时候在任意一张 wiki 页面(实体、结晶、主题)上点 深入研究:知识图谱会自动打开,对应的节点已经被选中(如果是主题页,整个聚类一次性高亮)。Graph Intelligence 的对话框上方会显示「正在研究:<这个主题的名字>」,它在这次会话里合成的结晶都会以这个聚类为种子。
这个动作就是整套循环:在资料库里读,在图谱里挖,再把结果保存回资料库。
边界
有几条边界是我们有意保持的:
- 智能体只「提议」。它产出的结晶和报告以提议形式出现在对话里,最终由你决定是否保留。
- 智能体读到的就是你看到的画布。没有隐藏上下文:你看不到的东西,它也看不到。
- Graph Intelligence 通过你配置的 Remote LLM 来运行,到 设置 > LLM Providers 里配。
- 一次密集的探索会消耗 token。后台和按需调用各自有独立预算和频率限制,可以在 设置 > 知识处理 里调整。
接下来读哪里
- LLM Wiki:资料库的 wiki 视角和「资料库 → 深入研究 → Graph Intelligence」整套阅读路径背后的模型。
- 资料库:大多数「深入研究」开始的地方。
- Background Intelligence:把这张图先建起来、并且持续维护它的那一层。
- 知识结晶:稳定参考页面是怎么被合成出来的,智能体的
CreateCrystal到底产出什么。 - Building memory systems for AI agents:完整阐述「超图」知识图谱、以及它为什么不只是一张普通的知识图谱。文章里嵌了北京 vLLM Meetup / KCD 的中文 talk 录像。