オムライスの備忘録

数学・統計学・機械学習・プログラミングに関することを記す

【深層学習】LoRA

LoRA

LLMの微調整において重みの差分のみを訓練対象とし、 差分重みを低ランク分解することで訓練パラメータ数を削減する方法であるLoRAを提案.

精度低下なしで時空間計算量とチェックポイントのサイズを削減できる.



参考

  • LoRA: Low-Rank Adaptation of Large Language Models

Web サイト