Index
Dataset Distillation / データセット蒸留
Dataset Distillation / データセット蒸留は、オリジナルとなる大規模なデータセットから
上手に、必要な情報のみを抽出した少量のデータセットを生成する.
そして、その生成したデータセットでモデルを学習することで学習コストを抑えたり、
データセットの蓄積・共有を容易にすることを目的とする.
Knowledge Distillation のひとつ.
「大規模な元データで学習したモデル」と同じくらいの精度を
「少ない生成された効率的なデータで学習したモデル」で達成することが目的.
FRePo / 2022
上の を求めるためのプロセスにおける課題.
- outer-level を解くために、inner-level の勾配 (メタ勾配 : ) を求める必要があり、計算コストとメモリが膨大
少量の生成データに対して、モデルパラメータの学習を行うため過学習しやすい
FRePo
PRO2 / 2023
- Project and Probe: Sample-Efficient Domain Adaptation by Interpolating Orthogonal Features
参考
- Dataset Distillation: A Comprehensive Review
- [2023]
- 2 RELAED WORKS
- 2.1 Knowledge Distillation
- 2.3 Generative Model
-
- arxiv.org