Nowledge Mem v0.6 发布:连接、自主
- Source: https://x.com/wey_gu/status/2024480351054418219?s=46
- Mirror: https://x.com/wey_gu/status/2024480351054418219?s=46
- Published: 2026-02-19T13:45:03+00:00
- Saved: 2026-02-20
Content

非常开心可以跟大家分享,Nowledge Mem 的 v0.6 第一个版本发布了。
这次的主题是两个词:连接、自主。
我们把 @NowledgeMem 作为中立、安全的上下文聚合层,连接所有 AI 工具和 Agent 这件事,从设想变成了现实。同时,Mem 自己也学会了思考:它不再只是被动地存东西,而是会在后台主动地分析、关联、综合你的知识。
这篇文章从我个人的角度聊聊 v0.6 做了什么,为什么这么做。产品的完整介绍可以看官方博客。
连接:把孤岛串起来
做 Nowledge Mem 的出发点很朴素:我们每天在 ChatGPT、Gemini、Claude Code、Cursor、DeepSeek、Kimi 之间来回切换,每个工具里都积累了大量有价值的上下文,但它们互相不知道对方的存在。
v0.6 在连接这件事上补齐了几块重要的拼图:
Exchange v2 浏览器扩展重写了一遍,现在覆盖 13+ 个 AI 平台(包括通义千问、智谱清言、MiniMax 这些国内平台)。核心能力是 Smart Distill:不再把整段对话无脑存下来,而是逐轮评估,只保留有价值的内容。你选一个 LLM 提供商(OpenAI、Anthropic、Ollama 都行),扩展就自主工作了。
Agent 对话自动同步支持了 Claude Code、Cursor、Codex、OpenCode。配好项目路径,Mem 自动导入编程会话。之前这些上下文(架构决策、调试过程、为什么选了方案 A 而不是 B)在会话结束后就没了,现在都留下来了。
Access Anywhere 让本地优先不再等于只能本地用。一键 Cloudflare 隧道,家里 Mac mini 上跑的 Mem,办公室笔记本、远程服务器的 agent、浏览器扩展都能连上。数据不过我们的服务器,API key 在你手里。Access Anywhere 已经支持我们的 Browser Extension,MCP 和 CLI
MCP 工具从基础的几个扩展到 24 个。 Agent 不再只能搜索和添加记忆,而是可以走 EVOLVES 演化链、查 Crystal、读 Working Memory、触发社区检测。我比较兴奋的是 MCP Apps:在 Claude Desktop 里调用 explore_graph,直接在对话中渲染一个交互式知识图谱,能点能拖。
还做了 Browse-Now,控制你自己的 Chrome(有登录态的),让 agent 能操作真实的浏览器。这个能力也是 Library 读取 URL 的底层。
集成生态也铺开了。 我们给几个最常用的工具做了专用插件:OpenClaw 原生记忆插件、Raycast 扩展、Alma 插件(感谢 @yetone 哥哥!) 。对于其他 agent,一行 npx skills add nowledge-co/community/nowledge-mem-npx-skills 就能装上 search-memory、read-working-memory、save-thread、distill-memory 四个 skill (感谢 @frostming90 哥哥!) 和 LobeHub 也内置了 Nowledge Mem 的集成。基本上,你日常用的工具都能连上了。
自主:让知识自己生长
连接解决的是”把上下文聚到一起”,自主解决的是”聚到一起之后能干什么”。
v0.6 之前,Mem 只负责存。连接、综合、发现规律,都是用户的事。现在 Mem 有了后台智能:
每天早上生成一份 Working Memory,写到 ~/ai-now/memory.md(并被 agentic 地不断随着知识的更新而更新)。你的编程 agent 开始工作时先读这个文件,不用你开口它就知道你最近在做什么。
自动检测记忆之间的演化关系(EVOLVES)。新想法和旧思考之间是替代、充实、确认还是矛盾,系统来判断。
Crystal 综合。同一话题积累够了,系统自动提炼出一条综合参考,标注每个论点的出处。
Insight 和 Flag。跨领域的隐藏关联、矛盾信息、过时内容,系统标出来,你来决定怎么处理。
这里面我个人最看重的是 EVOLVES 模型。我们定义了四种内容关系(replaces、enriches、confirms、challenges),它们可以穷尽:同一话题的任意两条相关记忆,新的那条一定在对旧的做这四件事之一。这让知识图谱不是一堆节点和边的堆砌,而是有方向、有语义的演化网络。当 Mem 说”你关于数据库架构的想法从三月到十月演化了 6 步”,它走的是真实的链,不是关键词搜索。
知识的三层结构
v0.6 重新设计了知识图谱的底层模型,参考了认知科学中记忆从原始体验到持久理解的转化过程:
Trace:原始记录。完整对话、上传文档、浏览器捕获。什么都不丢。
Unit:提炼后的原子知识。一个事实、一个决策、一次学习,归入八种类型之一。
Crystal:多条 Unit 的综合。不是摘要,是整合后的理解,每个论点可追溯到源头。
再加上 EVOLVES 关系做连接,社区检测做聚类,节点重要性做排序。这套模型让图谱有了真正的认知结构。
搜索引擎的重构
之前搜索全跑在图数据库上,能用但不够好。图数据库擅长关系遍历,不擅长文本检索。中文分词支持不够,当时为了控制 App Size,embedding 只有 384 维,没有 BM25。
v0.6 引入 LanceDB 做专用搜索引擎,图数据库回归它擅长的关系和算法。结果是:混合搜索(语义 + BM25 + RRF 融合)、1024 维 embedding(Qwen3-Embedding / BGE-M3)、原生中文分词、AI 重排序、Deep Search 快了一半。
这块的技术细节可以看之前写的《我们如何教会 Nowledge Mem 遗忘》,记忆衰减和时间理解的基础都在那篇里。
Next
v0.6 是一个重要的基础。接下来我比较期待的方向是基于 GNN 的链接预测:在用户自己的图谱结构上训练一个轻量图神经网络,从拓扑结构(而不只是文本语义)中预测可能的记忆关联。这跟我之前做 Graph RAG 的思路是一脉相承的,只不过这次图谱是用户自己的知识的超图,不只是实体的知识图谱。
Roadmap 上还有:移动应用(通过 Access Anywhere 连接)、团队记忆、更多 agent 集成。
如果你想试试:从这里开始。本地优先,数据在你自己设备上。
任何想法和反馈,欢迎直接和来我聊 @wey_gu ,也推荐入我们的 Discord 社区。
Link: http://x.com/i/article/2024462681827381248