Index
Pre Training / Fine Turning
深層学習の精度向上・マルチタスクのテクニックとして、Pre Training (事前学習) / Fine Turning がある.
Pre Training
日本語で、事前学習と訳されており、
教師データを必要としない自己教師あり学習を用いて、大規模なデータセットで学習する.
- 自己教師あり学習 / Self Supervised Learning
自然言語処理 / NLP で、この手法がいち早く導入されており、研究が盛んである.
- Pre Trained Model
その中でも、注目されているのは、Transformer というアルゴリズム.
- Transformer
マルチモーダル
自然言語から画像系のタスクのための Pre Traing を行う手法.
VirTex
CLIP
画像
Masked AutoEncoders / MAE / 2021
Fine Turning
事前学習が完了したモデルパラメータの一部を、初期のパラメータに利用して、
特定のタスクに特化した学習を行うのがFine Truningである.
特徴量の取得・解析に事前学習で学習した情報を利用できるため、学習収束の高速化や精度向上が期待できる.
Parameter Efficient Fine Tuning / PEFT
- Parameter Efficient Fine Tuning / PEFT
LoRA / 2021
LLMの微調整において重みの差分のみを訓練対象とし、
差分重みを低ランク分解することで訓練パラメータ数を削減する方法であるLoRAを提案.
精度低下なしで時空間計算量とチェックポイントのサイズを削減できる.
精度低下なしで時空間計算量とチェックポイントのサイズを削減できる.
LoRA: Low-Rank Adaptation of Large Language Models
- [2021]
- arxiv.org
AI を自分好みに調整できる、追加学習まとめ ( その5: LoRA)
低ランク行列近似によるLLMの計算効率化手法
【インターンレポート】6.7B日本語モデルに対するLoRAチューニング
LoRA: Low-Rank Adaptation of Large Language Models
応用
- Stable Diffusion (Diffusers)でLoRA~理論と実践~
参考
書籍
- コンピュータービジョン最前線 Winter 2021
- 1 イマドキノCV / 三つ巴の学習戦略
- 1.2 データラベルの利用活用
- 1.2.1 イマドキの事前学習
- 1.2 データラベルの利用活用
- 1 イマドキノCV / 三つ巴の学習戦略