为什么我们选了「LLM Knowledge Base」而不是「Memory Layer」—— 一次品类锚定决策日志
Karpathy 4 月 3 日那条爆款 gist 把「LLM Knowledge Base / LLM Wiki」推成了新品类。我们在三个候选词之间纠结,Memory Layer 看起来明显更强 —— 直到我们看清谁已经占了它。这是完整的决策日志。
2026 年 4 月 3 日,Andrej Karpathy 发了一条 public gist,描述他怎么用一个手写维护的「wiki / knowledge base」,每次开新 LLM 会话都手动复制粘贴进去。48 小时之内,「LLM Knowledge Base」和「LLM Wiki」上了 VentureBeat 和 AnalyticsIndiaMag 的头条。
这种品类形成的窗口期,两年才出现一次。我们当时的 landing page hero 文案方向完全错了,留给我们蹭热度的窗口大概只有两周 —— 否则别人会先把这个词锚走。
这篇文章是完整的决策日志:我们怎么选出新的品类锚定词,以及为什么把那个纸面上明显更强的候选 pass 掉了。
起点:「AI-Native Second Brain」已死
KnowMine 旧版 hero:
Your AI-Native Second Brain.
2024 年还行。2026 年它是个坟场。「Second Brain / 第二大脑」是 Tiago Forte 的关键词,被 Notion、Obsidian、Mem、Reflect 和十几个产品共占。是笔记类红海。每个「AI-native 笔记应用」听起来都一样。我们必须跳出去。
我们头脑风暴出三个备选:
- A. "Your knowledge, finally portable." —— 太抽象,没有品类锚
- B. "The AI that doesn't forget you." —— 反面叙事,锚定的是问题而不是方案
- C. 中英双语 hero 同屏 —— Google 会因为关键词密度低而降权 EN 页
三个都崩。该上 D 选项了。
第二轮:「Memory Layer」—— 看起来明显的答案
2026 年 AI infra 圈里聊得最火的新品类,就是 memory layer for AI agents。Mem0、Zep、Letta、Supermemory、LangMem,每一家都用同一个词 frame 自己的产品。Mem0 刚刚以这个 wording 拿了 2400 万美金 A 轮。
那显然我们应该抢「Memory Layer」对吧?用户当时甚至 push 回来过:「第二大脑」对普通人是有情感价值的,别把那个共鸣丢了。
我把这个论点 steelman 了一遍,差点就发了。然后我去查了一次数据,整个论点 90 分钟内崩塌。
第三轮:杀掉 Memory Layer 的三条证据
按出现顺序:
1. Karpathy 本人刻意回避「memory」这个词。
我回去把他原 gist 一句一句读了一遍,拿荧光笔标。他用的是 wiki, knowledge base, persistent compounding artifact。正文里「memory」这个词出现了 0 次。后续的生态报道(VentureBeat、AnalyticsIndiaMag、Hacker News 主帖)全部跟着用「LLM Knowledge Base」或「LLM Wiki」。没有一家主流媒体把它叫 memory。
这一波品类词的「赋词者」主动没选 memory。
2. Mem0 把「Memory Layer for AI Agents」彻底锁死了。
他们官方一句话定位就是 "Universal memory layer for AI Agents"。手里有 2400 万美金的弹药去守住这个词在 Google、在大会演讲、在每一档播客上的占位。把一个 C 端个人产品硬塞进 B2B infra 的这个槽,是一场我们必输、而且用户根本不是我们想要的那种用户的仗。
3. Karpathy 这波和 Mem0 是平行宇宙。
我审计了过去四周的所有报道。没有一个记者、Twitter 主帖、播客把「Karpathy 的 wiki 想法」和「Mem0 的 memory layer」放在同一句话里讨论。两边服务的人不一样(个人开发者 vs Agent infra 团队)、给的方案不一样(一个手抄 markdown vs 一个 API call)、舆论场从来不交叉。
如果我们选「Memory Layer」,会落进 mem0 的宇宙 —— 然后输。如果选 Karpathy 邻近的词,会落进他的宇宙,里面没有现成对手。
最终选择:「LLM Knowledge Base」
五个理由它赢了:
- Karpathy 的原词。 SEO 顺风车最大值,蹭的是空间里最被引用的那个声音刚刚加持的短语。
- 没有商业占位主。 sage-wiki 和 CRATE 是开源项目,不是品类 owner。这个槽是空的。
- 我们的护城河完美契合。 Karpathy 的方案是手动复制粘贴 markdown。CRATE 和 sage-wiki 全是本地 markdown 文件库。KnowMine 是第一个 MCP-native 的 LLM Knowledge Base —— Claude、ChatGPT、Cursor、任何 MCP 客户端都能在对话中直接读写。这是一个真实的产品 gap,不是营销话术。
- 避开 2400 万美金的战场。 用户不同(C 端个人,不是 agent infra 团队)、场景不同(知识工作,不是 API 调用)、技术栈不同。Mem0 和我们根本不竞争。
- 场景切分站得住脚。 传统笔记入口在「打开 app 手写」。KnowMine 入口在「你已经在 AI 对话里了」。两个结构性不同的市场 —— 新文案精准命名的就是我们这一边。
落地页改了什么
- Hero EN: The LLM Knowledge Base your AI can read and write.
- Hero ZH: 你的 AI 能直接读写的知识库。
- 副标题:「不是又一个笔记应用。基于 MCP 协议原生设计 —— 让 Claude、ChatGPT、Cursor 以及任何 MCP 客户端,在对话中直接帮你存、搜、沉淀长期知识。」
- 新的第二屏: 一个 logo wall,展示 KnowMine 原生兼容的所有 MCP 客户端。
一点教训
新品类词破圈的时候,默认动作是去抓那个听起来最响的相邻词。别。先把原始来源认真读一遍 —— 浪潮的赋词者到底用的什么词?—— 再看看候选词谁已经占了。没有 incumbent、被最大声背书 的那个词,就是答案。
我们差点就发了「Memory Layer」,因为它听起来强。数据 90 分钟内杀了它。这对一个产品要穿一年的定位决策来说,是非常便宜的一次救场。
如果你也在做 AI 时代的知识工具,品类词比 feature list 更重要。挑一个空的、挑一个屋子里最大声的人刚刚用过的。有时候这两件事是同一个词。
KnowMine 是第一个 MCP-native 的 LLM Knowledge Base —— Claude、ChatGPT、Cursor、任何 MCP 客户端都能在对话中直接帮你存、搜、沉淀长期知识。免费试用 →