LLM 提供商
远程 LLM 提供商支持矩阵、模型建议与 AI-Now/智能体使用注意事项
你可以按使用场景选择提供商,在设置中(或 nmem CLI/TUI)一次配置后长期使用。
Nowledge Mem 推荐优先使用订阅型提供商,日常体验更稳定:
- OpenAI ChatGPT/Codex 订阅
- Kimi Code 订阅
成本优先的默认建议
日常 AI-Now 使用,建议默认优先选择支持工具调用且更快的模型,不必一开始就用 SOTA。
例如:gpt-5.1-codex-mini(Codex 订阅)或 Kimi Coding Plan 相关模型。
如果你现在 token 消耗偏高(例如长期固定使用 gpt-5.3-codex),优先切换到更轻量、支持 tool use 的默认模型。
如何选择
ChatGPT/Codex 订阅
代码与通用任务都稳定,适合作为默认选择。
Kimi Code 订阅
适合编程工作流,AI-Now 工具调用表现稳定。
提供商章节指南
OpenAI(ChatGPT/Codex)
适合:编程 + 日常助手主力场景。
- AI-Now 与智能体工具调用稳定
- 生态兼容性强,默认选择更省心
Kimi / Moonshot
适合:Kimi Code 订阅与编码工作流。
- AI-Now 工具调用体验稳定
- 日常编码使用顺畅
Anthropic Claude
适合:看重自主工作流稳定性的用户。
- 工具调用与规划质量可靠
- 适合长链路、多步骤任务
DeepSeek
适合:关注成本/性能平衡的场景。
- AI-Now 建议使用
deepseek-chat - 在保留工具工作流时具备较好性价比
OpenRouter
适合:一个端点接入多模型。
- 多模型路由灵活
- AI-Now 场景请选择支持工具调用的模型
Gemini
适合:已在 Google 生态中的用户。
- AI-Now 与智能体场景可用
- 已有 Google AI Studio 凭据时接入顺滑
xAI
适合:Grok 用户。
- 支持 AI-Now 工具工作流
- 适合已在 xAI 生态中的团队
MiniMax
适合:已在 MiniMax 生态中的用户。
- AI-Now 与扩展工作流均支持
- 兼容当前可用的 MiniMax 聊天模型
Z.AI
适合:智谱生态用户。
- AI-Now 与智能体流程支持
- 区域与生态匹配度友好
Ollama
适合:本地优先 / 自托管用户。
- 模型运行不依赖公有云
- AI-Now 建议选择支持工具调用的模型
GitHub Copilot
适合:已有 Copilot 订阅体系的团队。
- AI-Now 支持
- 对既有 Copilot 用户迁移成本低
API
OpenAI 兼容自定义端点
适合:私有网关、自托管、企业代理。
- 端点需实现 OpenAI 兼容 chat completions
- 工具调用能力取决于网关与模型本身
DeepSeek 快速提示
DeepSeek 在 AI-Now 中请选择 deepseek-chat。
自定义提供商建议
如果你使用 OpenAI 兼容自定义端点(openai_compatible)并指向 DeepSeek(api.deepseek.com),在 AI-Now 与智能体场景中请将模型配置为 deepseek-chat。
Linux 无头部署配置请参考:Linux 服务器部署。