- GAN まとめ編
Index
Wasserstein GAN / W GAN
深層学習を用いた生成アルゴリズム GAN の応用手法.
学習の安定のための工夫.
真のデータ分布の推定の話
Introduction の話.
内容が脇道にそれるので、別記事に.
- Wasserstein GAN / W GAN #アルゴリズム編 #01
分布間の類似度
分布間の類似度を測定する手法を紹介.
- Total Variation (TV) Distance
- Kullback Leibler (KL) Divergence
- Jensen Shannon (JS) Divergence
- Earth Mover Distance / Wasserstein-1
この論文の意義
- Generator の学習の収束と生成画像の品質に相関する意味のある損失関数の設定
- 改善された最適化プロセスによる学習の安定性
損失関数
従来の GAN の目的関数
従来の GAN は目的関数 を Generator と Discriminator がそれぞれ最適化 (最小化 / 最大化) しようとしていた.
Binary Cross Entropy Loss
これは、Binary Cross Entropy Loss として考えれる.
- : 本物のデータのバッチサンプルと偽物の生成したデータの総数
- : Index のデータの本物 / 偽物 ラベル
- 本物 :
- 偽物 :
- : Index のデータを入力したときの Discriminator の予測確率
- Binary Cross Entropy Loss
入力のデータが、「本物の場合」と「偽物の場合」の 2 つ場合で分けられる.
Discriminator の損失の最小化
Generator の損失の最小化
Wasserstein Loss
本物 / 偽物ラベル
のラベルを、 と でなく、 と をラベルとして使う.
出力の範囲
Discriminator の最終層から sigmoid 活性化関数を削除して、予測 が
] の範囲ではなく、 ] の範囲にする.
そのため、Discriminator は、W GAN では、Critic / 評価器と呼ばれる
Discriminator
Generator
Lipschitz 制約
Cric (評価器) / Discriminator が、1-Lipschitz 連続関数になるような制約.
Weight Clipping
参考
書籍
- 生成 Deep Learning / オライリー
- 4 敵対的生成ネットワーク
- 4.5 Wasserstein GAN
- 4.5.1 Wasserstein 損失
- 4.5.2 Lipschitz 制約
- 4.5.3 重みをクリッピングする
- 4.5.4 WGAN を訓練する
- 4.5.5 WGAN の分析
- 4.5 Wasserstein GAN
- 4 敵対的生成ネットワーク