本文介绍了一种利用大语言模型构建个人知识库的新范式。与传统RAG不同,这种方式让LLM incrementally 构建和维护一个持久的维基百科式的知识库。
– 核心思想:在查询时不仅仅是从原始文档检索,LLM会增量构建一个结构化的、互相链接的markdown文件集合
– 知识是一次性编译的,后续会保持更新,而不是每次查询都重新推导
– 包含三个层次:原始来源(不可变)、LLM生成的维基百科(可编辑)、schema配置
应用场景包括:个人成长追踪、研究深度阅读、读书笔记、商业团队内部知识库等。
原文链接:https://gist.github.com/karpathy/442a6bf555914893e9891c11519de94f
🕐 发布于: 2026年04月05日 18:01
发表回复