アウトプットしていこう
こんばんは!
まぐろです。
論文を読んでいて、超簡単に論文のまとめを自分なりに作ってまとめているのですが、だんだんと数が増えてきていて折角だからこういうところでアウトプットしていこうかなと思いました。
なので、Qiitaで書くほどでもないけど、ちょっと書きたいなということを書いていこうと思います。
早速行ってみましょう!
1. Large Scale GAN Training for High Fidelity Natural Image Synthesis
いわゆる"BigGAN"ってやつですね。Google DeepMindのインターンの成果だったような気がします。
FIDやISの精度改善の仕組みは至極単純で、batch sizeを上げようね、というものです。
ようするに計算機で殴り倒しましょうということです。
しかし、検証は至極丁寧に行われており、うまくいかなかった実装パターンなども載せてくれているので、再現実装をやる際にはとてもありがたくなっています(再現実装できるかはまた別の話)。
この論文で精度向上に貢献した技術は"バッチサイズの増加"、"Orthogonal Initialization(直交初期化)"です。
その他訓練の安定化向上など様々な工夫がなされています。
意気込んだのはよかったものの、今回は1本だけです。。。
飽き性なので、初っ端からぶっ飛ばさずに気が向いた本数だけ書いていこうかなと思います。
あと今回紹介したBigGANはもっと丁寧で素晴らしい解説記事があるので、あまり書く意味はなかったですね。
次回からは日本語の記事には掲載されてはいないけど、気になった論文の一言メモを載せていこうかなと思います。
それでは
人とコンピュータの未来に幸あれ!