Index
Fine Turning
事前学習が完了したモデルパラメータの一部を、初期のパラメータに利用して、
特定のタスクに特化した学習を行うのがFine Truningである.
特徴量の取得・解析に事前学習で学習した情報を利用できるため、学習収束の高速化や精度向上が期待できる.
- Pre Training / Fine Turning
Scratch 学習 | Fine Tuning | |
---|---|---|
概要 | ランダムなWeightから学習を行う. | 公開されているPre Trained Model のWeight を更新することで学習を行う. |
メリット |
|
|
デメリット |
|
テクニック
Transfer Learning
- Transfer Learning
Parameter Efficient Fine Tuning / PEFT
- Parameter Efficient Fine Tuning / PEFT
LoRA / 2021
LLMの微調整において重みの差分のみを訓練対象とし、
差分重みを低ランク分解することで訓練パラメータ数を削減する方法であるLoRAを提案.
精度低下なしで時空間計算量とチェックポイントのサイズを削減できる.
精度低下なしで時空間計算量とチェックポイントのサイズを削減できる.
Model soups / 2022
複数の微調整されたモデルの重みを平均化することで、従来の最良の単一モデルを選択する方法よりも精度と頑健性を向上させる. この方法は、大規模な事前学習済みモデルを微調整する際に特に有効であり、推論時間やメモリコストの増加なしにアンサンブルの性能に匹敵することができる.
- Model soups: averaging weights of multiple fine-tuned models improves accuracy without increasing inference time
- [2022]
- arxiv.org
モデルスープは、学習済みモデルをFineTuneする際、異なるハイパーパラメータでFineTuneした複数モデルの重みの平均を使う。これらFineTune結果が同じBasin(盆地)に落ち、その重心をとることで汎化性能と頑健性を改善できる。性能が良いモデルから貪欲に合わせるのが良い。https://t.co/rNa6Q8nGOd
— Daisuke Okanohara / 岡野原 大輔 (@hillbig) March 13, 2022
参考
Webサイト
- LLM Fine-Tuning (東大松尾研LLM講座 Day5資料)