LLM知识库
LLM知识库
摘要:使用 LLM 构建和维护个人知识库的方法论,核心是将原始数据"编译"为持久化、复利增长的 Wiki,而非临时检索的 RAG。
核心要点
- 编译而非检索:将原始资料由 LLM 逐步"编译"成 Wiki(结构化 .md 文件集合),而非每次查询都从零重新推导
- 复利增长:wiki 是持久的产物,每次摄取资料、提问探索都在增强知识库,而非一次性消费
- LLM 全权维护:人类负责选材和提问,LLM 负责摘要、交叉引用、归档和一致性维护
- 规模效应:约 100 篇文章 / 40 万字时,可直接对 wiki 提出复杂问题,无需复杂 RAG
- 输出回存:有价值的回答、比较、分析回存进 wiki,让探索本身也复利积累
关键实体
- 知识编译:将原始数据增量编译为 Wiki 的过程
- Wiki Lint:对 Wiki 执行健康检查,发现不一致、补全缺失、挖掘潜在关联
- Obsidian:作为 IDE 前端,查看原始数据、编译后 Wiki 和衍生可视化
- RAG:传统检索增强生成模式,与 Wiki 编译模式形成对比
工作流全景
raw/(原始资料,只读)
↓ LLM 编译
wiki/(结构化 Wiki,LLM 读写)
↓ LLM 问答 + 工具
output(markdown / slides / 图表)
↓ 回存
wiki/(进一步增强)
五个核心环节
| 环节 | 操作 | 说明 |
|---|---|---|
| Data Ingest | raw/ → wiki/ | LLM 增量编译,提取概念、建立链接 |
| IDE | Obsidian 前端 | 查看 raw + wiki + 可视化 |
| Q&A | 对 wiki 提问 | LLM 自行检索分析,无需 RAG |
| Output | 生成多种格式 | markdown / Marp / matplotlib |
| Linting | 健康检查 | 不一致检测、缺失补全、新条目建议 |