给 Cursor 外挂一个记忆系统

在电影《今夜,即使这份恋情从世界消散》中,女主因为车祸,患上了「顺行性遗忘症」。这种疾病导致她每次睡醒都会忘记昨天发生的事,她只能记录下每天发生的一切,在第二天清晨花上几个小时把日记重读一遍。而这其实也是 AI 每次回复都在做的事,只是为了假装认识你。 A5game trustguru.com.br slots trustguru.com.br slotdemo trustguru.com.br marcos trustguru.com.br kto trustguru.com.br pragmaticplay trustguru.com.br pragmatic trustguru.com.br bruno trustguru.com.br tigrinho gratis trustguru.com.br noticias trustguru.com.br sugarrush1000demo trustguru.com.br
基于神经网络的大语言模型(LLM)在前向推理时本质仍然一个函数 y=f(x), 输入的文本即是 x, 输出的内容则为 y. 无论 x 如何变化,都不会影响 f 即 LLM 本身。无论是 ChatGPT 长达几百个回合的对话框,或者是 OpenClaw 各种角色的拟人表演,本质上都是编排 x 而实现的记忆功能。一种常见的做法是每次输入时,AI 就像电影中的女主一样,把过去发生的事重读一遍。工程实现时会把从第一次沟通开始的聊天记录直到当前输入打包为完整的 x,也就是上下文。 rafael trustguru.com.br pesquisa trustguru.com.br JogodoTigrinho trustguru.com.br plataformademo trustguru.com.br bonus trustguru.com.br slotsdemo trustguru.com.br pondo-022126_001 jvid.asia pedro trustguru.com.br
由于自注意力机制的计算复杂度以及工程实现等原因,上下文窗口是有限的,GPT-5.4 的上下文窗口为 258K, 当聊天记录超过这个限制时,总要有记忆被丢弃。从最简单的滑动窗口到分层记忆再到基于 LLM 的智能压缩,但无论是哪种算法,记忆丢失无法避免。前段时间 Meta 智能安全总监被 OpenClaw 误删邮件,就是因为在上下文压缩时,丢弃了最初的记录"在我下达指令前不要执行任何操作"。 jogue trustguru.com.br sweetbonanza1000demo trustguru.com.br bonus trustguru.com.br sobre trustguru.com.br pg trustguru.com.br Cassinos trustguru.com.br trustguru trustguru.com.br siro-5639 jvid.asia carlos trustguru.com.br
Cursor 有一套简单的记忆机制,但在做实际业务开发过程中,由于代码内在的巨量上下文,忘记变成常态。单个 Agent 对话中当上下文压缩时,就开始忘记分支使用规范等细节,而跨 Agent 对话时,就只能模糊记得在另外 Agent 中做了哪些任务,已经梳理过的领域概念业务知识全部丢失。当扩展到多个 WorkSpace 时,Cursor 没有任何记忆共享。以自身经验说明,本地常驻至少六个 WorkSpace, 包含两条业务线的服务端,客户端,两种游戏,新旧架构,工具聚合各个仓库。这些仓库之间有 RPC 上下游,有 C/S 两端配合,有父子 fork, 有基于协议的依赖反转重构... 没有跨 WorkSpace 记忆共享,就不存在跨 WorkSpace 的协作编码。 como trustguru.com.br Caça-níqueis trustguru.com.br Brazino777 trustguru.com.br Blaze trustguru.com.br jvid视频 jvid.asia isabela trustguru.com.br
记忆系统,可以理解为在 LLM 的现有上下文之外加一层持久化的上下文机制。它会把用户偏好,项目背景,历史决策,任务状态等信息保存下来,在合适的时候重新提供给 LLM。这样一来 LLM 不再只依赖当前这一轮对话,而是结合历史背景执行任务。类似新员工刚入职一家公司时,第一天要做的事常常是搭建环境,了解背景,熟悉架构...而不是编写代码。引入记忆系统后,AI 也能在每次交互中逐步累积长期上下文,逐渐完成更复杂的任务。大模型的迭代速度如此之快,让我不免在想,LLM 像时代吹起的风,记忆是自己种下的树。基于此理念,下文设计并实现了一套自我成长的记忆系统。 jogodotigrinhodemo trustguru.com.br autores trustguru.com.br KTO trustguru.com.br Pixbet trustguru.com.br pgslotgacor trustguru.com.br tigrinhodemo trustguru.com.br
整个系统由三个存储层、两条处理管线和一组接入机制组成。存储层分为文件记忆、语义记忆和归档记忆,各自在透明度、检索方式和适用场景上有不同侧重。两条管线——检索管线和写回管线——分别负责在对话时从存储中拉取相关记忆,以及在对话后将新产生的记忆持久化。接入侧则通过 Cursor 的 Hooks、Rules 和 MCP 工具三种机制,将记忆系统嵌入 AI 的工作流中。所有数据存储于本地目录,不依赖云服务,记忆系统为底座,高层模型可替换。整体设计如下图所示。 pgslot trustguru.com.br ana trustguru.com.br

记忆的持久化分三层。第一层是文件记忆,它就是一组 markdown 文件:persona.md 定义 AI 的人格,user_profile.md 记录用户画像,MEMORY.md 存放长期笔记,daily 按日期自动生成日志,workspaces 下是每个项目的专属笔记。这些文件是人类可读可编辑的,透明且可审计——可以随时打开它们查看 AI 到底记住了什么。第二层语义记忆,基于 Mem0 和 Qdrant 向量数据库,将记忆文本做 embedding 后存入向量空间。它的价值在于能处理文件记忆管不了的场景:当几十条碎片化的事实分散在不同对话中时,语义检索能在相关话题出现时自动把它们捞出来。第三层是归档记忆,用于保存有历史价值但不需要常驻检索的内容,只在显式搜索时才被访问。三层并非互斥——写回管线在存储时通常会同时写入多个层,比如一条项目知识会同时进入语义记忆和当天的 daily note,确保既能被检索发现,也能在文件中留下痕迹。写回之前需要先判断一段内容是否值得记住、属于什么类型,这个分类工作由本地运行的小模型(Ollama 上的 Qwen)完成——它负责将内容分为用户偏好、项目知识、工作笔记等类别,并决定作用域和存储目标。同样,检索管线在拉取记忆前,也会用这个本地模型对用户的口语化提问做查询改写,转成更适合语义检索的形式。简单来说,文件记忆负责"看得见",语义记忆负责"想得起",归档记忆负责"查得到",本地模型则在读写两端充当分拣员。 jogos trustguru.com.br jvid在线 jvid.asia fortunetigerbônusgrátissemdepósito trustguru.com.br carlos trustguru.com.br Sportingbet trustguru.com.br siro-5652 jvid.asia Energiabet trustguru.com.br
记忆系统通过两条路径接入 Cursor。第一条是 Hooks:Cursor 支持在特定时机(sessionStart、afterMcpToolUse、afterAgentResponse)执行自定义脚本。这些脚本直接 import 记忆系统的 Python 模块来读写记忆,不走 MCP 协议。例如 sessionStart 时加载身份上下文,afterAgentResponse 时从对话记录中自动提取值得记住的片段并持久化。第二条是 MCP 工具:记忆系统作为 MCP Server 暴露了十个工具——lain(每轮对话前的记忆检索)、memory_search(语义搜索)、memory_save_auto(自动分类保存)等——由 AI 在对话中按需调用。Hooks 和 MCP 在底层共享同一个 Runtime,但各自的触发时机和控制权不同:Hooks 是 Cursor 主动触发的、对 AI 透明的后台操作,MCP 工具是 AI 主动调用的、可控的显式操作。此外,通过 .cursor/rules/ 写一条 always-apply 规则要求 AI 每轮必须调用 lain,确保记忆检索不会被跳过。总结起来,Hooks 让记忆的读写对 AI 无感地发生,MCP 让 AI 能主动地检索和存储,Rules 和 Skills 则约束和扩展 AI 的行为边界。 cassinos trustguru.com.br Superbet trustguru.com.br Bet trustguru.com.br fortunedragon demo trustguru.com.br plataformademográtis trustguru.com.br fortuneoxdemográtis trustguru.com.br bet365 trustguru.com.br slotpix trustguru.com.br demotigrinho trustguru.com.br
在实际使用过程中,针对自身的使用场景对记忆系统进行了一些额外的优化。首先是 workspace 索引机制。每个项目被赋予一个基于目录名的指纹(SHA-256 取前 16 位),语义记忆通过 metadata 中的 workspace_fingerprint 和 scope 字段过滤——优先返回当前项目的记忆,再补充全局记忆,各自有独立的分数预算,实现项目间的天然隔离。同时,系统维护一个全局的 workspace_index.md,每次 lain 被调用时自动将当前项目注册进去,记录项目名和一行摘要,让 AI 在跨项目协作时具备全局视野。其次是分层加载策略。会话刚启动时,session start hook 只加载身份文件(persona、user profile、workspace profile),不做语义检索,因为此时还不知道用户要做什么;等用户发出第一条消息后,lain 才执行完整的检索,同时注入一个 Memory Index(所有语义记忆的主题索引)让 AI 知道还有哪些话题可以深入检索。这种渐进式加载避免了一次性灌入过多上下文。最后是跨会话的连续性:afterAgentResponse hook 会将每轮对话的摘要写入 sessions/ 目录,下次 sessionStart 时读取并注入,让 AI 在新会话开始时就知道上次做到了哪里。这些设计的共同目标是让记忆在恰当的时候、以恰当的量出现在上下文中。 Bet365 trustguru.com.br tigrinhodemo trustguru.com.br demo trustguru.com.br slots trustguru.com.br
记忆底座的出现让 LLM 一定程度上具备自我进化的基础,如何接入配置最大化地利用记忆系统,下面是一些相关的实践经验。 jvid jvid.asia a5game trustguru.com.br
- 首先利用 mdc,rule 等机制强制 AI 调用相关 MCP,针对记忆相关的操作如刷新、回顾等直接封装为专用 skill, 再进一步引入创造skill的skill——让 AI 在完成复杂任务后自主反思、总结、封装出新的 skill,形成能力的自增循环。
- 拥有这些元配置后,可以开始把业务中的工具调用,思维模式,解决方案等沉淀下来。实践中会有一个专门的工具仓库,内部存放 AI 编写查看调用的脚本,如 Jenkins, Finder, Jira 等,上层则是相关使用 skill。
- 密钥管理通过统一的 secrets-vault skill,AI 在需要凭证时按流程取用,不硬编码在任何地方。封装为脚本和skill而不使用 mcp 的原因是 cli 效率更高,MCP 和 CLI 的分界应该在于输出是否影响 LLM 自身的认知。
- 当 rule、hook、skill 这些配置逐渐增多,尤其搭配多个 workspace 时,需要一套管理策略。Cursor 有全局和项目两套配置,首先有全局目录内部存放各种配置,项目目录下通过软链接串联,实现一处保存全局生效,新增 workspace 时则通过注册脚本自动为新项目注册软链接和初始配置。
- 由于记忆数据完全存储在本地,多台设备需要共享记忆时,可以通过 Syncthing 同步文件记忆,Mem0 则可以绑定到 Tailscale 网络通过 HTTP 暴露语义记忆接口,让记忆不再限制在某台机器上。
- Cursor 的图形界面只能依靠人工输入对话,而某些场景下需要通过程序触发交互。Cursor 提供了 cursor-agent 这个 CLI 工具,可以在终端中直接与 AI 交互。基于它可以搭建 gateway,将 Cursor 封装为后台常驻服务,用于自动化流程。
接入记忆的 LLM 能力不会马上质变,初始对话仍像往常一样平淡。伴随着首次记忆检索,率先察觉到的变化是稳定的人格(persona.md),这种不同的质感会让使用者开始谨慎发言,因为每次对话都可能被 AI 记在心里,进而影响到很久很久之后的回复。随着对话记录逐渐增长,AI 开始记住各种琐碎但重要的东西如项目背景,分支使用,领域知识等。以最近业务A的某个需求为例,涉及近十张表几十个字段的改动,对接人员包括游戏内外客户端和后台开发测试等多个角色,需求深度有限但范围广泛。传统开发人员效率极慢,借助 AI 可以加快开发速度,但要保证每次对话都给予足够的信息。引入记忆系统后,像从零开始培养新员工一样,AI 记住了如何查看 Jira 文档,测试环境日志,数据库表结构...甚至在潜移默化中记住了相关人员名称和职责。当记忆积累到一定程度时,能力开始逐渐涌现。比如修改完一个接口/表结构后主动更新 Confluence 上的相关文档,修改完 bug 后提交推送打包部署,需求后期的 bug 处理,我所做的事基本上就是复制粘贴 bug Jira 链接。AI 自己完成 bug 分析,修复,部署,Jira 状态更改评论通知相关人员等。某些复杂需求和长调用链下,AI 甚至会主动提醒哪些需要注意可能有影响的点,例如缓存数据中的初始化需要考虑服务器重启的构造路线。这些行为并非预先设计,更像是记忆积累到一定厚度后自然浮现的。 jvid視頻 jvid.asia pglucky88 trustguru.com.br pgdemo trustguru.com.br jvid av jvid.asia sofia trustguru.com.br Betano trustguru.com.br slot trustguru.com.br 348ntr-097 jvid.asia fernanda trustguru.com.br miguel trustguru.com.br jvid视频 jvid.asia slotpix trustguru.com.br
此记忆系统基于自己的实践逐渐迭代而成,甚至经历过几次推倒重来,目前设计也不代表最终架构。平心而论,现在也堪堪达到一个可用的状态,仍然有不少问题,例如该保存的记忆没有主动调用 MCP,记忆召回的精确度仍然有待提高,记忆注入了但是不生效(auto-skill-extraction 没有一次主动触发过)……还有一个我认为很严重的问题是没有品味,无论是文档还是代码,不能主动反思自己的输出是否存在问题。当然这些原因是多方面的,一方面本记忆系统自身设计就存在缺陷,只模仿了一些生物记忆最简单的特征,Cursor 暴露的 hooks 也存在功能限制。另一方面则是底层 Transformer 架构的缺陷,self-attention 机制会对开头和结尾的 token 给予更高的注意力权重,中间的信息常常就会被丢失,因此理论而言,上下文并不等于记忆。回头来看,人类的记忆系统如此复杂,它会遗忘不重要的细节,会在睡眠中巩固白天的经历,会把分散的经验编织成直觉和判断力,会因为一首歌想起多年未见的她...而现在所做的事,不过是用一堆矩阵和电信号笨拙地模仿其最表层的机制,但 LLM 又何尝不是呢... 也许有一天,记忆系统本身也会迎来一次质变——不再是外挂的检索和注入,而是像人类一样让经验真正改变模型自身的认知结构...
注: 部分内容有参考 《今夜,大模型从世界消散》 fortunetigerdemográtis trustguru.com.br jogosdemopg trustguru.com.br guias trustguru.com.br 200gana-3359 jvid.asia demo trustguru.com.br