集成
连接任何 AI 工具到你的知识。自由切换,上下文不变。
Nowledge Mem 连接的是你真正每天在用的工具。知识留在一个地方,工具可以随时更换。
如果你是新用户
如果你刚装好 Mem,还不确定自己该走哪条路径,请先看 从这里开始。等你知道自己需要原生集成、浏览器扩展,还是自定义路径以后,再回到这一页。
先选路径,再开始
Nowledge Mem 的接入方式有很多,但第一判断其实很简单:如果你的工具已经有专属 Nowledge 集成,就先装它。只有在没有专属路径时,才考虑共享包、直接 MCP、CLI 或导入流程。
对大多数用户来说,可以按这个顺序判断:
- 你的工具如果已经有专属 Nowledge 集成,就安装它。
- 如果你的工作主要发生在 ChatGPT、Claude、Gemini 等网页聊天里,就安装浏览器扩展。
- 如果没有专属集成,但支持共享技能或提示词,就用复用型工作流包。
- 只有当客户端支持 MCP、但没有更好的专属路径时,再直接配置 MCP。
- 如果你需要手动命令、脚本或本地自动化,就直接使用 CLI。
| 如果你使用... | 推荐路径 | 集成类型 | 为什么 |
|---|---|---|---|
| Gemini CLI | Gemini CLI 扩展 | 原生集成 | 专属扩展,提供生命周期钩子、命令、技能,以及基于 nmem 的真实会话导入 |
| Claude Code | Claude Code 插件 | 原生集成 | 专属插件,提供生命周期钩子、斜杠命令、工作记忆简报加载与自动会话捕获 |
| Droid | Droid 插件 | 原生集成 | Factory 原生插件,提供生命周期钩子、命令、技能,以及基于 nmem 的清晰交接摘要路径 |
| Cursor | Cursor 插件 | 原生集成 | 专属插件包,内含 MCP 配置、规则、技能,以及明确的交接摘要语义 |
| OpenClaw | OpenClaw | 原生集成 | 专属插件,带有工具级生命周期支持、检索与捕获行为 |
| Alma | Alma | 原生集成 | 专属插件,带有工具级生命周期支持与检索行为 |
| OpenCode 和更多支持共享技能的编程智能体 | npx skills | 复用型工作流包 | 不需要自己手写系统提示,也能复用记忆工作流 |
| 没有专属 Nowledge 包、但支持 MCP 的客户端 | 直接 MCP(见下文) | 直接 MCP | 用一套共享 MCP 配置接入标准工具能力 |
| Chrome 或 Edge | 浏览器扩展 | 浏览器捕获入口 | 从浏览器侧边栏直接捕获和提炼对话 |
| 终端、脚本或远程工作流 | CLI | 直接命令入口 | 直接使用 nmem 完成搜索、保存、自动化与受支持的线程导入 |
| Codex CLI | Codex CLI 指南 | 工具专属工作流包 | 工具专属提示词包,配合 AGENTS.md 指导与真实会话保存 |
| 你已有的笔记 | Obsidian、Notion、Apple Notes | 本地知识来源 | 在 AI Now 中把笔记与记忆一起搜索 |
| 历史会话或导出文件 | 对话指南 | 导入入口 | 把文件、导出记录和过去的会话导入 Mem |
大多数用户只需要看表里的一行
找到你已经在用的那个工具,点进去照着那份指南做,先不用把这一整页都读完。
适合很多编程智能体的最快复用方案
对于 OpenCode 和其他支持 skills 安装器的智能体环境:
npx skills add nowledge-co/community/nowledge-mem-npx-skills这会安装四个技能:search-memory、read-working-memory、save-handoff 和 distill-memory。安装后,智能体会在会话开始时先读取上下文,在需要时在记忆与对话之间选择合适的检索路径,并在用户明确要求时保存可恢复的交接摘要。
如果你的工具有自己专属的复用型工作流包,而不是通用的 skills 路径,就直接使用那份指南。比如 Codex 就应该跟着 Codex CLI 指南 来配置。
有原生集成时,优先用原生集成
如果你的工具已经有专属集成,请优先使用:Claude Code、Gemini CLI、Droid、Cursor、OpenClaw、Alma。这些路径在共享记忆模型之上,还会加入工具专属的行为能力。
专属 Nowledge 集成 与完整会话捕获
如果你需要的是真实录制的会话内容,而不是一个可恢复的摘要,那么你走的是哪条集成路径就非常重要。
| 集成 | 是否有专属 Nowledge 包 | 是否支持完整会话捕获 | 说明 |
|---|---|---|---|
| Claude Code | 是 | 是 | 原生插件,带生命周期钩子与真实会话导入。 |
| Gemini CLI | 是 | 是 | 原生扩展,提供 save-thread,并把 save-handoff 保持为单独语义。 |
| Droid | 是 | 目前插件内还不支持 | 原生插件只暴露 save-handoff。在 Droid 还没有真实 transcript 导入器之前,它不会假装提供 save-thread。 |
| Cursor | 是 | 目前插件内还不支持 | 原生插件只暴露 save-handoff。本地 Cursor 对话请使用应用内发现/导入。 |
| OpenClaw | 是 | 是 | 原生插件会自动捕获真实会话。 |
| Alma | 是 | 是 | 原生插件支持真实会话捕获。 |
| Codex CLI | 有工具专属工作流包,但不是 Gemini 式插件 | 是 | 使用 Codex 专属提示词包路径,再配合 nmem t save --from codex。 |
通用 npx skills 智能体 | 没有专属运行时导入器 | 否 | 应使用 save-handoff,而不是 save-thread。共享技能无法在各种宿主上稳定承诺真实 transcript 导入。 |
为什么通用 skills 不能承诺完整会话捕获
共享 skills 可以影响提示行为,但它并不能决定宿主智能体是否暴露可读取的会话文件,或稳定的 transcript API。正因为如此,通用 npx skills 才应该把 save-handoff 作为默认值。只有专属集成在对应运行时里真正具备能力时,才应该暴露真实的 save-thread。
如果你想看更完整的线程保存与导入矩阵,请继续看 对话指南。
面向自定义智能体的意图控制
原生集成通常已经把行为规则准备好了,会直接告诉智能体何时读取工作记忆简报、何时检索过去知识,以及何时保存真正值得长期保留的信息。
如果你的智能体没有专属插件或扩展,就应该把这层“意图控制”直接写进 AGENTS.md、CLAUDE.md、GEMINI.md 或系统提示中。
第一步:先给智能体一个记忆入口
常见做法有三种:
- 用
npx skills提供共享技能 - 让智能体直接看到
nmemCLI - 如果客户端支持 MCP,就直接接 MCP 工具
第二步:加入一段简短、直接的意图策略
可以把下面这段策略放进 AGENTS.md、CLAUDE.md、GEMINI.md 或系统提示里:
## Nowledge Mem
把 Nowledge Mem 当作你的外部记忆系统。
在会话开始时:
- 先运行 `nmem --json wm read`,读取当前优先事项和最近上下文。
- 不要在每一轮都重复读取,除非用户明确要求,或当前会话上下文已经明显变化。
在这些情况下主动搜索:
- 用户提到之前做过的工作、过去修过的问题,或更早的某个决策
- 当前任务是在继续某个已命名的功能、Bug、重构或子系统
- 当前的调试模式很像以前解决过的问题
- 用户在问理由、偏好、流程,或团队反复使用的工作方式
检索路由:
- 先用 `nmem --json m search` 查持久知识。
- 当用户问的是某次过去的讨论,或需要准确的对话历史时,再用 `nmem --json t search`。
- 如果结果里带有 `source_thread`,就用 `nmem --json t show <thread_id> --limit 8 --offset 0 --content-limit 1200` 分页查看,不要一口气加载整条长对话。
在保存知识时:
- 只有真正新的长期知识才用 `nmem --json m add`。
- 如果已有记忆已经记录了同一个决策、偏好或流程,而这次只是补充或修正,请改用 `nmem m update <id> ...`,不要制造重复。
- 交接摘要相关保存只在用户明确要求可恢复的交接摘要时使用。如果你的智能体只能看到 MCP 工具,也可以沿用同样的策略,只是把命令名替换成工具名:read_working_memory、memory_search、thread_search、thread_fetch_messages、memory_add、memory_update。
第三步:保持策略短、直接、可执行
最有效的意图提示,不是长篇说明,而是直接告诉智能体:
- 何时读取工作记忆简报
- 何时主动搜索
- 何时使用对话工具,而不是
memory_search - 何时新增记忆,何时更新已有记忆
- 何时交接摘要只能在用户明确要求时执行
模型上下文协议 (MCP)
MCP 是 Nowledge Mem 面向通用客户端的兼容层。只有当你的客户端支持 MCP、但没有专属的 Nowledge 集成时,才应该优先走这条路径。
专属集成、复用包 与 直接 MCP
| 路径 | 适用场景 | 示例 |
|---|---|---|
| 原生集成 | 你的工具已经有专属的 Nowledge 包 | Claude Code 插件、Gemini CLI 扩展、Droid 插件、Cursor 插件、OpenClaw 插件、Alma 插件 |
| 复用型工作流包 | 你的智能体可以安装共享技能或提示词 | npx skills、Codex 提示词 |
| 直接 MCP | 客户端支持 MCP,你需要标准工具访问 | Cursor 手动 MCP 配置、Claude Desktop、ChatWise、GitHub Copilot |
如何理解 MCP
当有专属集成时,优先使用专属集成。它们底层可能会用到 nmem、MCP、工具原生生命周期钩子,或者几者混合,但对终端用户来说,首先应该按“我装的是哪种入口”来理解,而不是先去理解底层传输方式。
MCP 能力
- 搜索记忆:
memory_search - 读取工作记忆简报:
read_working_memory - 添加记忆:
memory_add - 更新记忆:
memory_update - 列出记忆标签:
list_memory_labels - 保存/导入对话:
thread_persist - 提示词:
sum(提炼为记忆),save(创建交接摘要对话)
MCP 服务器配置
ChatWise自主行为的系统提示
对于只支持 MCP 的应用,把下面这段策略加入系统提示、CLAUDE.md 或 AGENTS.md,就能让智能体更主动、更稳定地使用记忆能力:
## Nowledge Mem 集成
你可以使用 Nowledge Mem 进行知识管理,请主动使用这些工具:
**会话开始时(`read_working_memory`):**
- 调用 `read_working_memory` 获取今日简报
- 了解用户当前的关注领域、优先事项和未解决问题
- 在与当前任务相关时自然引用这些上下文
**何时搜索(`memory_search`):**
- 当前话题与之前的工作有关联
- 当前问题与过去解决过的问题类似
- 用户询问过去的决策("我们为什么选择 X?")
- 复杂调试,可能匹配过去的根本原因
**何时搜索对话(`thread_search` / `thread_fetch_messages`):**
- 用户在问某次之前的讨论或具体对话历史
- 某条记忆结果指向来源对话
- 按页逐步抓取消息,不要一次性倾倒整条长对话
**何时保存记忆(`memory_add`):**
- 解决复杂问题或完成调试后
- 做出重要决策并附带理由时
- 发现关键洞察("原来如此"时刻)后
- 整理流程或工作方式时
- 跳过:常规修复、进行中的工作、普通问答
**何时更新已有记忆(`memory_update`):**
- 在保存前先搜索,看这个主题是否已经存在
- 如果检索结果已经包含同一个决策、偏好或流程,就更新原有记忆,而不是再新增一条近似重复的内容
- 当新信息是在补充、修正或延伸已有知识时,优先使用更新这可以在 Claude Desktop、Cursor 手动 MCP 配置、ChatWise 等仅 MCP 应用中启用自主记忆操作。
浏览器扩展
从受支持的 Web AI 聊天平台捕获记忆,支持自动捕获、手动提炼和对话备份。
对话
导入和管理来自编程工具、导出文件、API 或命令行的对话。
工具指南
按你实际使用的产品来找对应的安装与配置指南。这里既包含原生集成,也包含内置路径和可复用工作流包。
如果你想在安装后确认这条路径是否真的已经生效,请配合 如何确认 Mem 已经在工作 一起使用。
| 集成 | 你会得到 |
|---|---|
| Claude Code | 插件含生命周期钩子,开局读简报,适时保存 |
| Droid | Factory 插件,带工作记忆简报、路由式检索、提炼与可恢复的交接摘要 |
| Cursor | 插件包内含 MCP 配置、路由式检索、提炼与可恢复交接摘要 |
| Claude Desktop | 一键安装的扩展,对话中随时保存、搜索、更新记忆 |
| Codex CLI | 提示词 + 可选 AGENTS.md,支持搜索、保存、提炼与工作记忆简报 |
| Gemini CLI | 基于 nmem 的原生扩展,包含生命周期钩子、命令与技能 |
| Alma | 插件含自动回忆和可选的自动捕获 |
| OpenClaw | 含生命周期和回归测试的完整配置指南 |
| Raycast | 五个命令:搜索、添加、读取工作记忆简报、本地编辑简报,以及探索图谱连接 |
| DeepChat · LobeHub | 内置支持,开关即用,无需配置 MCP |
相关指南: Claude Code · Droid · Cursor · Claude Desktop · Codex CLI · Gemini CLI · Alma · OpenClaw · Raycast · 内置 Web 聊天
LLM 友好文档
本文档站的每一页都可以作为干净的 Markdown 供 AI 智能体和 LLM 使用:
curl -H "Accept: text/markdown" https://mem.nowledge.co/docs/integrations| 端点 | 返回内容 |
|---|---|
/llms-full.txt | 所有文档页面合并为一个文件 |
/llms.mdx/docs/<slug> | 单页 Markdown |
无需认证。
API 集成
RESTful API,完整访问你的知识库。
命令行界面 (CLI)
nmem CLI 提供终端下的知识库访问,面向开发者和 AI 智能体。
安装
| 平台 | 安装方式 |
|---|---|
| macOS | 设置 → 偏好设置 → 开发者工具 → 安装 CLI |
| Windows | 随应用自动安装 |
| Linux | 包含在 deb/rpm 包中 |
快速上手
# 检查连接
nmem status
# 搜索记忆
nmem m search "项目笔记"
# 创建记忆
nmem m add "重要洞察" --title "项目学习"
# 保存 Claude Code/Codex/Gemini 会话
nmem t save --from claude-code
nmem t save --from codex -s "本次完成的内容摘要"
nmem t save --from gemini-cli -s "本次完成的内容摘要"AI 智能体集成
# JSON 输出,便于解析
nmem --json m search "API 设计"
# 链式命令
ID=$(nmem --json m add "笔记" | jq -r '.id')
nmem --json m update "$ID" --importance 0.9命令参考
| 命令 | 别名 | 描述 |
|---|---|---|
nmem status | 检查服务器连接 | |
nmem stats | 数据库统计 | |
nmem memories | nmem m | 记忆操作 |
nmem threads | nmem t | 对话操作 |
完整文档
运行 nmem --help 或查看 GitHub 上的 CLI 参考。