让LoRA学习更少遗忘更少,优化模型微调调优的新方法
thinkindev • 2024-05-20
837628 views
LoRA(Learning of Rate Adjustor)是一种被广泛应用于模型微调的方法,用于注入风格或知识。近期的一篇研究论文深入探讨了在使用LoRA时,学习能力和遗忘之间的权衡关系。研究发现,LoRA相比于全面微调,虽然学习的内容更少,但能更好地保留原始模型在面对“超出分布”的表现。这一发现对于理解和改进模型微调的策略有着重要的启示作用,提供了一个在保证模型精确性的同时,降低遗忘率的有效方法。
核心要点
- LoRA是一种流行的模型微调方式
- LoRA在微调时,能学习更少的内容,但更能保留模型的原始性能
- LoRA为理解和改进模型微调提供了新的视角