- GAN まとめ編
Index
Self-Attention GAN
深層学習を用いた生成アルゴリズム GAN の応用手法.
画像生成の精度に対する改善手法.
従来の GAN では、DC GAN で画像対応するために、CNN が導入された.
- DC GAN
CNN の局所的な受容野より、大局的な受容野を利用できる Self Attention を導入した.
- Self Attention
改善点
Attention Map
この提案手法では、GAN のフレームワークに Self Attention を導入した.
具体的には、Generator と Discriminator のネットワークアーキテクチャに Self Attention を導入した.
つまり、CNN の中間層からの出力が、Self Attention の入力になる.
- : CNN からの出力
- : チャネル数
- : CNN からの特徴量の数
Attention の計算のために、Key と Value を計算する.
Key と Value から 関連度・重要度 を計算.
は、ある位置 に対する、各位置 に関する評価を表す.
最後に出力として、重要度を入力に掛け合わす.
最終的な出力には、入力の情報を加える.
Spectral Normalization
Spectral Normalization GAN / SN GAN で利用されている Spectral Normalization を Generator と Discriminator に導入.
- Spectral Normalization GAN / SN GAN
Spectral Normalization を導入することで、Lipschitz 連続の制約を課すことができる.
Two Timescale Update rule / TTUR
従来の GAN の学習では、Generator の 1 回の学習のステップに対し、複数回 (5回とか) の Discriminator の学習ステップを行なっていた.
TTUR を導入することで、学習にステップの回数を減らし学習を高速化する.
- GANs Trained by a Two Time-Scale Update Rule Converge to a Local Nash Equilibrium
参考
- Self-Attention Generative Adversarial Networks
- [2018]
- Abstract
- 3 Self-Attention Generative Adversarial Networks
- 4 Techniques to Stabilize the Training of GANs
- 4.1 Spectral normalization for both generator and discriminator
- 4.2 Imbalanced learning rate for generator and discriminator updates
- arxiv.org
Web サイト
【論文読み会】Self-Attention Generative Adversarial Networks
Self-Attention GAN / Big GAN
[論文メモ]Self-Attention Generative Adversarial Networks(SA-GAN)
- Shikoan's ML Blog さん
- アルゴリズムメイン
- blog.shikoan.com
Self-attention GAN(SAGAN)を実装して遊んでみた
- Shikoan's ML Blog さん
- 実装・検証メイン
- blog.shikoan.com