失效链接处理 |
ZLLM+向量库的文对话 l验?nbsp; PDF 下蝲
相关截图Q?/strong>
![]() 主要内容Q?/strong>
一、基?/strong>LLM+向量库的文对话 基础?/strong>
1.1 Z?大模?需?外挂(向量)知识库?
如何 ?外部知识 注入 大模型,最直接的方法:(x)利用外部知识对大模型q行微调
既然 大模型微?不是 ?外部知识 注入 大模??最优方案,那是否有其它可行Ҏ(gu)Q?/span>
1.2. ZLLM+向量库的文对话 思\是怎么P
版本一
版本一
• 思\Q构建几十万量的数据,然后利用q些数据 对大模型q行微调Q以?额外知识注入大模?/span>
• 优点Q简单粗?/span>
• ~点Q?/span>
i. q?几十万量U的数据 q不能很好的额外知识注入大模型Q?/span>
ii. 训练成本昂贵。不仅需?多卡q行Q还需?训练很多天;
1. 加蝲文g
2. d文本
3. 文本分割
4. 文本向量?/span>
5. 问句向量?/span>
6. 在文本向量中匚wZ问句向量最怼?/span>top k?/span>
7. 匚w出的文本作ؓ(f)上下文和问题一h加到 prompt ?/span>
8. 提交l?/span> LLM 生成回答
|