

你是不是也这样?收藏的文章在文件夹里吃灰,读过的论文转头就忘,上次踩过的坑下次照样掉进去!
信息越多,脑子越乱,真正要用的时候,什么都找不到……
别急!今天给你带来一个好消息——AI大神Karpathy刚刚分享了他的个人知识库搭建方法,而且这个方法,和你想的完全不一样!
过去我们以为的知识库,就是个需要不断维护的“存储工具”,但在Karpathy这里,它变成了一个由大模型持续整理、持续更新的“运行系统”!
连卡神自己都忍不住说,现在大部分Token都不是用来写代码,而是拿来跑知识库了!
先说说为什么你之前的知识库总是不好用:
而卡神的方法,直接把这三个痛点全解决了!
别担心技术门槛!卡神的方法简单到让人不敢相信——只需要三步,就能拥有一个“会自己更新、越用越聪明”的知识库!
第一步听起来有点“原始”——还是需要手动导入资料!
但别急着关掉!卡神说了,这只是早期有点累,等AI熟悉你的工作风格后,一切都变得超简单!
具体怎么做?
把所有资料打包进一个文件夹(raw/)——是的,不用整理,直接扔进去就行!
然后让大模型帮你干一件神奇的事:把raw/里乱七八糟的资料,编译成一个井井有条的维基百科!
这个维基百科本质上就是一堆Markdown文件,但内容已经完全不一样了:
最终,所有资料汇集在一起,会形成一个互相引用的知识网络!
贴心小工具:卡神还分享了自己的Obsidian Web Clipper插件!平时看到好文章,直接点一下插件就能将网页转成.md文件,图片一键下载到本地(不下载的话,如果哪天网站崩了图也就没了~)
等AI整理完数据后,我们可以在前端查看:
卡神这里用的是Obsidian——它不止可以当浏览面板,还自带一些插件(比如用Marp生成幻灯片)!
而且他还特意提到,维基里的所有数据,基本都是由大模型来编写和维护的,自己几乎从不直接动手修改!
一旦数据积累得足够多,且被AI整理得井井有条后,接下来当然是用起来了!
卡神分享道,自己最近有项研究的维基攒了100篇文章(约40万字),本以为这个规模得搞一套复杂的RAG(检索增强生成)技术才行。
结果发现:根本不需要!
只要大模型平时把索引文件和摘要维护好了,哪怕40万字的规模,它也能相对轻松地读取所有重要相关数据,然后给出高质量的回答!
而且卡神真心夸赞,大模型在自动维护索引和摘要方面“表现相当好”!
划重点来了!光自己补还不够,为了让整个系统保持更新,卡神还补了两层关键能力:
第一层:Lint+Heal机制
让大模型定期扫描整个知识库,自动发现不一致的数据、补全缺失信息,甚至主动建议新增条目,必要时还可以通过外部搜索把空缺补齐!
第二层:CLI工具接口
提供了一套CLI工具,用来给知识库提供搜索和访问接口——一方面让大模型可以高效检索和读取内容,另一方面也方便人通过命令行或网页直接使用这套知识库!
到这里,整个知识库才真正“活起来”!
你会发现,它和传统知识库已经完全不是一回事了:
过去的知识库,本质是一个需要人不断维护的“存储工具”,而在卡神这里,它变成了一个由大模型持续整理、持续更新的“运行系统”!
不是一个单纯的“搜索引擎”,而是可以不断长出新知识的“第二大脑”!
而一旦有了这样的知识库,人们会突然发现:
好像也不需要再一味拼命卷上下文窗口了?
过去大家卷上下文,是因为AI老是容易“说着说着就忘了以前的内容”,越到后面越驴唇不对马嘴。
核心症结就一个——记忆问题!
但是现在,情况变了!
原本需要一次性塞进上下文的资料,被沉淀进了个人知识库里,模型不再强行记忆,而是按需读取、按需使用!
于是整个逻辑彻底反过来了:
你每次提供的信息不再是“临时的”,而是在知识库里“长期存储”;每一次用也不是纯消耗,而是在给知识库不断补充新知识!
对模型来说,它也不需要时刻记住一切,而是只需要知道“什么东西在哪里”!
本质上,这其实是从“让模型记住”,变成了“让系统可查找”!
而这一转变,按网友的话来说,其影响在智能体时代将更加“疯狂”!
网友评价:
“我认为如果正确应用(卡帕西的这种个人知识库),这对智能体来说非常好。不再是每轮对话都从共享内存中临时提取信息,而是构建一个持续存在的、有生命力的知识库。”
“你的协调者(Agent)不再只是协调任务……它还在维护机构化的知识,这样每一次执行都会为知识库增添一些东西。”
“拥有自己知识层的Agent,并不需要无限的上下文窗口——它们只需要良好的文件组织能力,以及读取自己索引的能力。这比把所有东西都塞进一个巨大的提示词里,更便宜、扩展性更强、也更容易检查和理解。”
金句总结:最好的知识库不是存储工具,而是会自己成长的第二大脑!
互动问题:你现在的知识管理方式是什么?有没有遇到过“存了找不到”的尴尬?
点赞分享:如果觉得这个方法有用,记得点赞+分享给身边同样被信息困扰的朋友!让我们一起告别信息焦虑,拥抱智能知识管理新时代!