LoRA
LLMの微調整において重みの差分のみを訓練対象とし、
差分重みを低ランク分解することで訓練パラメータ数を削減する方法であるLoRAを提案.
精度低下なしで時空間計算量とチェックポイントのサイズを削減できる.
精度低下なしで時空間計算量とチェックポイントのサイズを削減できる.
- Fine Turning
参考
- LoRA: Low-Rank Adaptation of Large Language Models
- [2021]
- arxiv.org
Web サイト
AI を自分好みに調整できる、追加学習まとめ ( その5: LoRA)
低ランク行列近似によるLLMの計算効率化手法
【インターンレポート】6.7B日本語モデルに対するLoRAチューニング
LoRA: Low-Rank Adaptation of Large Language Models