
我是 supermemory 的创始人。Clawd/Molt bot 最近正在爆火,出现了非常非常多的用例。我也把它搭起来了,并一直通过 Telegram 使用它。
TLDR:直接去 https://supermemory.ai/docs/integrations/clawdbot 给你的 clawd bot 配置 supermemory。
不过,我和几位朋友注意到,它的记忆真的很差。感觉就像……它从来不愿意利用自己的记忆来回答问题。
对于这么大、这么成功的项目来说,这太糟了。但为什么会这样?我们立刻开始动手……
@manthanguptaa 对它们的架构做了很棒的拆解——https://x.com/manthanguptaa/status/2015780646770323543?s=42;从那里我们可以知道,它在引用记忆时高度依赖工具。
工具的问题在于——模型并没有被训练成会一直使用工具。
记忆应该是模型随时都能访问到的东西,它应该在每一次运行时都被直接喂给模型。然而,由于记忆太差,Molt 当前的架构在这方面根本行不通。
修复方案。
我们把 clawd bot 和 supermemory 集成了起来,提供:
始终自动回忆
用于手动搜索、遗忘、获取个人资料等的工具
/remember 和 /recall 命令
所以现在,你 始终 可以确定你的 clawd bot 会拥有完美记忆。
现在,我可以和 Molt 进行极其漫长的对话,从 Telegram 切到 WhatsApp 再切到 Slack,它依然保留关于我的全部上下文,并与 supermemory 同步。
这种感觉很魔幻。你应该试试。
如果你想进一步了解 supermemory,就读这条——https://x.com/DhravyaShah/status/2015132693835714909?s=20
要为你的 clawd bot 安装 supermemory,请看这里 https://supermemory.ai/docs/integrations/clawdbot

