LLM知识库

LLM知识库

摘要:使用 LLM 构建和维护个人知识库的方法论,核心是将原始数据"编译"为持久化、复利增长的 Wiki,而非临时检索的 RAG。

核心要点

关键实体

工作流全景

raw/(原始资料,只读)
    ↓ LLM 编译
wiki/(结构化 Wiki,LLM 读写)
    ↓ LLM 问答 + 工具
output(markdown / slides / 图表)
    ↓ 回存
wiki/(进一步增强)

五个核心环节

环节 操作 说明
Data Ingest raw/ → wiki/ LLM 增量编译,提取概念、建立链接
IDE Obsidian 前端 查看 raw + wiki + 可视化
Q&A 对 wiki 提问 LLM 自行检索分析,无需 RAG
Output 生成多种格式 markdown / Marp / matplotlib
Linting 健康检查 不一致检测、缺失补全、新条目建议

相关链接

原文来源

Powered by Forestry.md