返回列表
🧠 阿头学 · 💬 讨论题 · 💰投资

Clawd/Molt 记忆差,supermemory 借势切入但营销明显过头

这篇内容抓住了 Agent“记忆不该完全依赖工具调用”这个真问题,但把 supermemory 包装成“完美记忆”明显是营销性夸大。
打开原文 ↗

2026-01-29 原文链接 ↗
阅读简报
双语对照
完整翻译
原文
讨论归档

核心观点

  • 真痛点抓对了 作者对 Clawd/Molt 的批评大体成立:如果长期记忆要靠模型自己想起来再调用工具,实际体验就会频繁失忆,这对高频对话型 Agent 是结构性缺陷。
  • 解决方向有价值 把高频、基础、必须命中的记忆做成默认可访问的上下文层,而不是纯工具层,这个架构判断是站得住的,尤其适合跨会话、跨平台的连续交互场景。
  • 产品承诺严重过度 “始终自动回忆”“完美记忆”这类说法不可信,因为检索召回错误、过时信息污染、身份映射错误、上下文干扰都没有被解决,只是被营销话术盖过去了。
  • 证据链太弱 全文主要靠创始人个人体验、朋友观察和第三方拆解转述,没有 benchmark、没有前后对照实验、没有成本与延迟数据,因此说服力不足,只能算高质量软广,算不上技术定论。
  • 借势打法值得注意 这不是一篇中立评测,而是一场典型的生态寄生式增长:盯住爆火项目的公开痛点,快速做集成、发布教程、绑定场景词,占领用户心智,这个 GTM 动作本身很成熟。

跟我们的关联

  • 对 ATou 意味着什么 ATou 如果做 Agent 产品,不能把“必须命中”的能力都交给模型自主决定,否则会在关键体验上掉链子;下一步可以按“默认注入 vs 按需调用”重构能力分层,先把记忆、身份、偏好、长期目标从工具层抽出来。
  • 对 Neta 意味着什么 Neta 在判断 AI 项目时,应该优先看 failure mode 而不是 demo;下一步可以建立一套“记忆系统验收表”,重点测跨平台连续性、错误记忆纠正、召回稳定性和成本曲线。
  • 对 Uota 意味着什么 Uota 如果关注内容与增长,这篇最有价值的不是技术细节,而是借势爆款生态做精准转化的打法;下一步可以复盘它的传播结构:先指出通用痛点,再给一键解决方案,最后用“魔幻体验”制造传播钩子。
  • 对三者共同意味着什么 “它记得我”会成为 AI 产品留存的核心体验,但“记住”不等于“记对”;下一步应把记忆从营销 feature 变成可审计、可删除、可纠错、可度量的基础设施。

讨论引子

1. Agent 的长期记忆到底应该默认注入多少,超过什么阈值就会从“帮助”变成“干扰”? 2. 对用户来说,“跨平台连续记忆”究竟是留存护城河,还是隐私风险放大器? 3. 如果基础模型的 tool use 很快变强,独立记忆层产品的价值会增强,还是会被平台内建能力吃掉?

我是 supermemory 的创始人。Clawd/Molt bot 最近正在爆火,出现了非常非常多的用例。我也把它搭起来了,并一直通过 Telegram 使用它。

TLDR:直接去 https://supermemory.ai/docs/integrations/clawdbot 给你的 clawd bot 配置 supermemory。

不过,我和几位朋友注意到,它的记忆真的很差。感觉就像……它从来不愿意利用自己的记忆来回答问题。

对于这么大、这么成功的项目来说,这太糟了。但为什么会这样?我们立刻开始动手……

@manthanguptaa 对它们的架构做了很棒的拆解——https://x.com/manthanguptaa/status/2015780646770323543?s=42;从那里我们可以知道,它在引用记忆时高度依赖工具。

工具的问题在于——模型并没有被训练成会一直使用工具。

记忆应该是模型随时都能访问到的东西,它应该在每一次运行时都被直接喂给模型。然而,由于记忆太差,Molt 当前的架构在这方面根本行不通。

修复方案。

我们把 clawd bot 和 supermemory 集成了起来,提供:

始终自动回忆

用于手动搜索、遗忘、获取个人资料等的工具

/remember 和 /recall 命令

所以现在,你 始终 可以确定你的 clawd bot 会拥有完美记忆。

现在,我可以和 Molt 进行极其漫长的对话,从 Telegram 切到 WhatsApp 再切到 Slack,它依然保留关于我的全部上下文,并与 supermemory 同步。

这种感觉很魔幻。你应该试试。

如果你想进一步了解 supermemory,就读这条——https://x.com/DhravyaShah/status/2015132693835714909?s=20

要为你的 clawd bot 安装 supermemory,请看这里 https://supermemory.ai/docs/integrations/clawdbot

I'm the founder of supermemory. Clawd/Molt bot is blowing up right now, with many, many use cases. I set it up, too, and have been using it through telegram.

我是 supermemory 的创始人。Clawd/Molt bot 最近正在爆火,出现了非常非常多的用例。我也把它搭起来了,并一直通过 Telegram 使用它。

TLDR: just go to https://supermemory.ai/docs/integrations/clawdbot to set up supermemory for your clawd bot.

TLDR:直接去 https://supermemory.ai/docs/integrations/clawdbot 给你的 clawd bot 配置 supermemory。

However, me and some other friends of mine noticed that it's memory is really bad. It almost feels like... it never wants to utilize it's memory to answer questions.

不过,我和几位朋友注意到,它的记忆真的很差。感觉就像……它从来不愿意利用自己的记忆来回答问题。

For such a big and successful project, this sucks. but why? We instantly got to work...

对于这么大、这么成功的项目来说,这太糟了。但为什么会这样?我们立刻开始动手……

@manthanguptaa did an awesome job breaking down their architecture - https://x.com/manthanguptaa/status/2015780646770323543?s=42 and from that, we know that it heavily relies on tools to reference memory.

@manthanguptaa 对它们的架构做了很棒的拆解——https://x.com/manthanguptaa/status/2015780646770323543?s=42;从那里我们可以知道,它在引用记忆时高度依赖工具。

The problem with tools - The models aren't trained to use them all the time.

工具的问题在于——模型并没有被训练成会一直使用工具。

Memory needs to be something that the model can access any time, it should just be fed into the model on every run. However, the current architecture of Molt won't work at all because of this poor memory.

记忆应该是模型随时都能访问到的东西,它应该在每一次运行时都被直接喂给模型。然而,由于记忆太差,Molt 当前的架构在这方面根本行不通。

The fix.

修复方案。

We integrated clawd bot with supermemory - with:

我们把 clawd bot 和 supermemory 集成了起来,提供:

Automatic recall at all time

始终自动回忆

Tools to manually search, forget, get profile, etc.

用于手动搜索、遗忘、获取个人资料等的工具

/remember and /recall commands

/remember 和 /recall 命令

So now, you always know that your clawd bot will have perfect memory.

所以现在,你 始终 可以确定你的 clawd bot 会拥有完美记忆。

Now, i can have extremely long conversations with Molt, switch from telegram to whatsapp to slack, and it has all the context about me, synced with supermemory.

现在,我可以和 Molt 进行极其漫长的对话,从 Telegram 切到 WhatsApp 再切到 Slack,它依然保留关于我的全部上下文,并与 supermemory 同步。

This feels magical. You should try it.

这种感觉很魔幻。你应该试试。

If you want to learn more about supermemory, just read this - https://x.com/DhravyaShah/status/2015132693835714909?s=20

如果你想进一步了解 supermemory,就读这条——https://x.com/DhravyaShah/status/2015132693835714909?s=20

To install supermemory for your clawd bot, go here https://supermemory.ai/docs/integrations/clawdbot

要为你的 clawd bot 安装 supermemory,请看这里 https://supermemory.ai/docs/integrations/clawdbot

I'm the founder of supermemory. Clawd/Molt bot is blowing up right now, with many, many use cases. I set it up, too, and have been using it through telegram.

TLDR: just go to https://supermemory.ai/docs/integrations/clawdbot to set up supermemory for your clawd bot.

However, me and some other friends of mine noticed that it's memory is really bad. It almost feels like... it never wants to utilize it's memory to answer questions.

For such a big and successful project, this sucks. but why? We instantly got to work...

@manthanguptaa did an awesome job breaking down their architecture - https://x.com/manthanguptaa/status/2015780646770323543?s=42 and from that, we know that it heavily relies on tools to reference memory.

The problem with tools - The models aren't trained to use them all the time.

Memory needs to be something that the model can access any time, it should just be fed into the model on every run. However, the current architecture of Molt won't work at all because of this poor memory.

The fix.

We integrated clawd bot with supermemory - with:

Automatic recall at all time

Tools to manually search, forget, get profile, etc.

/remember and /recall commands

So now, you always know that your clawd bot will have perfect memory.

Now, i can have extremely long conversations with Molt, switch from telegram to whatsapp to slack, and it has all the context about me, synced with supermemory.

This feels magical. You should try it.

If you want to learn more about supermemory, just read this - https://x.com/DhravyaShah/status/2015132693835714909?s=20

To install supermemory for your clawd bot, go here https://supermemory.ai/docs/integrations/clawdbot

📋 讨论归档

讨论进行中…