失效链接处理 |
Zlora的llama2二次预训l?nbsp; PDF 下蝲
相关截图Q?/strong>
![]() 主要内容Q?/strong>
一、ؓ(f)什么需??/strong> llama2 ?Zlora的二ơ预训练?
加入中文训练语料q行llama2的二ơ预训练Q这h型就可以增加支持中文输出的能力?/span>
二、基?/strong>lora?/strong>llama2二次预训l?的目标是什么?
在保持预训练模型权重不变的情况下Q通过d额外的网l层q仅训练q些新增的网l层参数Q实现大模型的高
效微调(peftQ?/span>
三、基?/strong>lora?/strong>llama2二次预训l?的思想是什么?
思想Q基于对模型本征l度Q?/span>intrinsic dimensionQ的理解?/span>
“本征l度”是指模型中真正有用的、能够媄(jing)响模型输出的参数数量?/span>
Aghajanyan研究发现Q预训练模型的内在维度实际上非常,卛_有一部分参数对模型输出有显著媄(jing)响。就?/span>
存在一个极低维度的参数Q微调它和在全参数空间中微调能v到相同的效果
LORA假设模型在Q务适配q程中权重的改变量是低秩Q?/span>low rankQ?/span>
W=W0+ΔWQ?/span>ΔW=BA
参数更新范围Q只训练新增的网l层参数
|