失效链接处理 |
大模型(LLMsQ参数高效微?PEFT) ?PDF 下蝲
相关截图Q?/strong>
![]() 主要内容Q?/strong>
1. 微调Ҏ(gu)是啥Q如何微调?
fine-tuneQ也叫全参微调,bert微调模型一直用的这U方法,全部参数权重参与更新以适配领域数据Q效果好?/span>
prompt-tune, 包括p-tuning?/span>lora?/span>prompt-tuning?/span>adaLoRA{?/span>delta tuningҎ(gu)Q部分模型参数参与微调,训练
快,昑֭占用,效果可能?/span>FTQ?/span>fine-tuneQ比会稍有效果损失,但一般效果能打^?/span>
铑֮?/span>BELLE的技术报告?/span>A Comparative Study between Full-Parameter and LoRA-based Fine-Tuning on
Chinese Instruction Data for Instruction Following Large Language Model》中实验昄Q?/span>FT效果E好?/span>LoRA?/span>
2. Z么需?/strong> PEFTQ?/strong>
在面对特定的下游dӞ如果q行Full FineTuningQ即寚w训练模型中的所有参数都q行微调Q,太过低效Q?/span>
而如果采用固定预训练模型的某些层Q只微调接近下游d的那几层参数Q又难以辑ֈ较好的效果?/span>
3. 介绍一?/strong> PEFTQ?/strong>
PEFT技术旨?/span>通过最化微调参数的数量和计算复杂度,来提高预训练模型在新d上的性能Q从而缓解大?/strong>
预训l模型的训练成本。这样一来,即计算资源受限Q也可以利用预训l模型的知识来迅速适应CQ务,实现
高效的迁Ud习?/span>
4. PEFT 有什么优点?
PEFT技术可以在提高模型效果的同Ӟ大大~短模型训练旉和计成本,让更多h能够参与到深度学习研I?/span>
中来。除此之外,FEFT可以~解全量微调带来N性遗忘的问题?/span>
|