← 主题阅读
主题阅读

别再怪模型失忆了:你真正缺的是真相源,不是更长上下文

2026-04-02

这三篇表面分别在谈 AGENTS.md、plan.md 和 AI Coding 项目分层,底层其实在追同一个病灶:很多 agent 失控,不是因为模型不够聪明,也不只是因为记忆太短,而是团队根本没把“什么算当前真相、什么是计划、什么是现场状态”分开。上下文一旦混成一锅,模型越勤奋,偏航只会越快。

🧠 记忆 ⚡ Prompt 👥 组织
1

AGENTS.md 不是越全越好,臃肿文档正在给编码智能体加税

这篇文章的判断是对的:大而全的 AGENTS.md 往往不是增强剂,而是让编码智能体更慢、更散、更容易抓不到重点的固定成本。

💡 先把误区捅破:给 Agent 塞更多说明文档,不一定是增强,往往只是把真正关键的约束埋进噪音里,让系统先在输入层缴税。

⚡ Prompt 🤖 Agent 👥 组织 3 min
2

AI 编程的新主流程不是写代码,而是先写 plan.md

这篇文章最有价值的判断是“LLM 时代真正稀缺的是规划与编排,不是手写代码”,但作者把个人高配、高风险、强生态绑定的工作流包装成普适方法,这一步明显说过头了。

💡 然后把解法往前推一步:plan.md 的价值不只是方便协作,而是把意图和执行临时分离,让 Agent 不必一边干活一边猜老板脑子里到底想要什么。

🧠 记忆 🤖 Agent 👥 组织 23 min
3

AI Coding 不是失忆问题,而是真理源失控问题

这篇文章最有价值的判断是:AI Coding 经常失控,主因不是模型“没记住”,而是项目把产品定义、实现现实、治理规则和本地现场混写,逼着 agent 在漂移的真相源里瞎猜。

💡 最后把问题系统化:真正该治理的不是“记忆丢没丢”,而是产品定义、实现现实、治理规则和本地现场这些真相源有没有被混写到失控。

🤖 Agent 👥 组织 🏗 构建 17 min

🧵 串联问题

如果 Agent 时代真正稀缺的不是更多 token,而是更干净的真相源与计划层,那 Neta 现在最该先工程化的到底是什么:把知识压缩得更短、把计划写得更清楚,还是把产品定义/实现现实/运行现场彻底拆层?哪一层没立住,后面所有自动化都会变成更快的自我欺骗?