Least Squares Generative Adversarial Networks

Yusuke Stephen Inoue
Academication
Published in
1 min readMar 8, 2017

【一言】GANsの識別器の損失関数を最小2乗損失関数に変更したことでより現実的な画像生成ができ、動作も安定した。

【abstract】
Unsupervised learning with generative adversarial networks (GANs) has proven hugely successful. Regular GANs hypothesize the discriminator as a classifier with the sigmoid cross entropy loss function. This loss function, however, may lead to the vanishing gradient problem during the learning process. To overcome such problem, here we propose the Least Squares Generative Adversarial Networks (LSGANs) that adopt the least squares loss function for the discriminator. We show that minimizing the objective function of LSGAN yields minimizing the Pearson χ2 divergence. There are two benefits of LSGANs over regular GANs. First, LSGANs are able to generate higher quality images than regular GANs. Second, LSGANs performs more stable during the learning process. We evaluate the LSGANs on five scene datasets and the experimental results demonstrate that the generated images by LSGANs look more realistic than the ones generated by regular GANs. We also conduct two comparison experiments between LSGANs and regular GANs to illustrate the stability of LSGANs.

【abstract翻訳】
Generative Adversarial Networks(GANs)による教師なし学習は大成功を収めました。通常のGANsは、シグモイドクロスエントロピー損失関数を有する分類器として識別器を仮定する。しかしながら、この損失関数は、学習プロセス中に勾配の消失問題を引き起こす可能性がある。このような問題を克服するために、ここでは、最小2乗損失関数を識別器に適用するLSGAN(Least Squares Generative Adversarial Networks)を提案する。 LSGANの目的関数を最小化すると、ピアソンχ2ダイバージェンスを最小限に抑えることができます。通常のGANよりもLSGANには2つの利点があります。第1に、LSGANは通常のGANよりも高品質の画像を生成することができる。第二に、LSGANは学習過程でより安定して動作する。我々はLSGANを5つの背景データセットで評価し、LSGANによる生成画像は通常のGANによって生成された画像よりも現実的に見えることを実験結果が示す。 LSGANの安定性を示すために、LSGANと通常のGANの2つの比較実験も実施します。

--

--