失效链接处理 |
大模型(LLMsQ微调面 PDF 下蝲
相关截图Q?/strong>
![]() 主要内容Q?/strong>
1. 如果惌在某个模型基上做全参数微调,I竟需要多显
存?
一?/span> n B的模型,最低需?/span> 16-20 n G的显存。(cpu offload基本不开的情况下Q?/span>
vicuna-7BZQ官Ҏ(gu)例配|ؓ 4*A100 40GQ测试了一下确实能占满昑֭。(global batch size
128Q?/span>max length 2048Q当然训l时用了FSDP、梯度篏U、梯度检查点{方式降昑֭?/span>
2. Z?/strong>SFT之后感觉LLMM?
• 原版{案Q?/span>
SFT的重点在于激发大模型的能力,SFT的数据量一般也是万恶之源alpaca数据集的52k量Q?/span>
相比于预训练的数据还是太了?/span>
如果q灌注领域知识而不是激发能力的xQ去?/strong>SFT的话Q可能确实容易把LLM弄傻?/span>
• 新版{案Q?/span>
指o微调是ؓ了增强(或解锁)大语a模型的能力?/strong>
其真正作用:
指o微调后,大语a模型展现出泛化到未见qQ务的卓越能力Q即使在多语a场景下也能有不错?/span>
??/span>
|