mem9 原理解析:向量化之后,为什么比原生记忆更适合 AI Agent
如果只看表面,mem9 很像是在给 AI Agent 的 memory 加一层向量检索。
但我把 mem9 仓库当前实现的写入链路、召回链路和数据模型真正看下来以后,越来越确定一件事:它的变化并不是“从关键词搜索换成 embedding”这么简单,而是把记忆从本地文件升级成一套可抽取、可去重、可重塑、可共享的服务端系统。
腾飞中的个人博客
如果只看表面,mem9 很像是在给 AI Agent 的 memory 加一层向量检索。
但我把 mem9 仓库当前实现的写入链路、召回链路和数据模型真正看下来以后,越来越确定一件事:它的变化并不是“从关键词搜索换成 embedding”这么简单,而是把记忆从本地文件升级成一套可抽取、可去重、可重塑、可共享的服务端系统。
2026 年 4 月 16 日,Anthropic 正式发布了 Claude Opus 4.7。和每次大模型发布一样,最先刷屏的往往不是参数表,而是一张 benchmark 成绩图。
这次也一样。很多人第一眼看到的,是几个醒目的分数:SWE-bench Pro 64.3%、SWE-Bench Verified 87.6%、Terminal-Bench 2.0 69.4%、OSWorld-Verified 78.0%。但真正有信息量的,不是“哪个数字最大”,而是这些 benchmark 名字本身。
最近在用 Codex 的时候,我碰到一个很现实的问题:现在官方更提倡用 skill 来承载工作流能力,但不像以前那样可以直接依赖 slash command 作为调用入口。
这带来的变化是,skill 解决的是“怎么做”,却没有顺手解决“我怎么快速把这个意图发出去”。如果每次都手写 prompt,不仅麻烦,还很容易出现同一个动作每次描述都不一样的问题。于是我开始找一个更轻量的办法,把这些高频 prompt 固化下来,最后选了 espanso。
作为一名程序员,我们都热爱创造,热衷于用代码改变世界。但不得不承认,在日常的开发流程中,总有一些“烦人”的小事,比如写文档、写注释,以及——写 git commit 信息。这些任务虽然重要,但往往会打断我们心流,让人觉得索然无味。
Google 的 Gemini 2.5 Pro 模型无疑是当今性能最顶尖的 AI 模型之一。更难能可贵的是,Google 提供了相当慷慨的免费使用额度,让广大开发者和 AI 爱好者都能亲身体验其强大功能。然而,这份“免费午餐”并非毫无限制,其严格的速率限制(Rate Limits)常常成为重度使用场景下的瓶颈。
……在现代化的工作流中,效率是关键。通过将人工智能(AI)无缝集成到我们日常使用的生产力工具中,可以极大地提升工作效率。本文将介绍如何将 AI 功能,特别是性价比极高的 DeepSeek 模型,整合到以下四个核心工具中:
……