アウトプットしていこう
こんばんは!
まぐろです。
論文を読んでいて、超簡単に論文のまとめを自分なりに作ってまとめているのですが、だんだんと数が増えてきていて折角だからこういうところでアウトプットしていこうかなと思いました。
なので、Qiitaで書くほどでもないけど、ちょっと書きたいなということを書いていこうと思います。
早速行ってみましょう!
1. Large Scale GAN Training for High Fidelity Natural Image Synthesis
いわゆる"BigGAN"ってやつですね。Google DeepMindのインターンの成果だったような気がします。
FIDやISの精度改善の仕組みは至極単純で、batch sizeを上げようね、というものです。
ようするに計算機で殴り倒しましょうということです。
しかし、検証は至極丁寧に行われており、うまくいかなかった実装パターンなども載せてくれているので、再現実装をやる際にはとてもありがたくなっています(再現実装できるかはまた別の話)。
この論文で精度向上に貢献した技術は"バッチサイズの増加"、"Orthogonal Initialization(直交初期化)"です。
その他訓練の安定化向上など様々な工夫がなされています。
意気込んだのはよかったものの、今回は1本だけです。。。
飽き性なので、初っ端からぶっ飛ばさずに気が向いた本数だけ書いていこうかなと思います。
あと今回紹介したBigGANはもっと丁寧で素晴らしい解説記事があるので、あまり書く意味はなかったですね。
次回からは日本語の記事には掲載されてはいないけど、気になった論文の一言メモを載せていこうかなと思います。
それでは
人とコンピュータの未来に幸あれ!
国際学会で初発表です!
こんにちは!
まぐろです
最近前期の授業も終わり研究と筋トレの無限ループだったので、あんまそれといって書くことがなかったです。
大学院の授業が意外とたくさんあってしんどかったのでびっくりしてます。。。
もっとのびのび研究できるものだと思ってました。
2、3コマなら息抜き程度になっていいかな、とは思うのですが。
この間初の国際学会の論文を投稿してoralでacceptされたので嬉しかったです。
その国際学会の発表が今週末に控えていまして、飛び立つ準備をしている次第であります。
アメリカに行くのは久しぶりなので、とても楽しみです。
たくさんお菓子を買ってこようと思います笑笑
そんなこんなで頑張っていきます。
それでは
人とコンピュータの未来に幸あれ!
GRE受けます
こんにちは!
まぐろです
私は現在修士なのですが、再来年にアメリカでの博士の留学をするために本格的に対策することにしました
そこで、最近知ったのですが、GREという試験を受けなくてはいけないことになりました
ネイティブの人たちが文理ごちゃまぜ受ける試験らしいので震えています
なので、そろそろ予備校に通ってちゃんと対策しないとなぁと考え始めています
お勧めの予備校があったら教えて下さいmm
それとは話が変わるのですが、英語の学習という点でTOEFL iTPが一番いいような気がするんですよね(唐突ですね)
TOEICはなんかテクニックで乗り切るようなテストなので、あんまり勉強という点では微妙だし、TOEFL iBTだと読み聞きは強くなるとは思うのですが、文法が疎かになるような気がするんですよね
そういう点で最初の取っ掛かりとしてTOEFL iTPだと文法もやるし、長文も読むし、やや長めのリスニングもあるのでいいかなぁと思うのです
たしかにテクニック的なこともあるのですが、英語の基礎力という意味では一番適している気がするので、高校とかで扱った方がいいんじゃないかなぁと思います
点数で勝負すると楽しいですしね
って感じでGRE頑張っていきます
それでは
人とコンピュータの未来に幸あれ!
Related work(関連研究)って難しくないですか?
こんにちは!
まぐろです。
今国際学会の論文を書いているところです。
大学院に入って二本目です。
なのですが、毎回Related workのところがとてもしんどいです、、、
関連研究として大体3つくらいは元にしてやってはいるのですが、それだけでは少し心もとないです。
なので、その3つそれぞれが言及してる関連研究についてもいくつか言及するべきなのかどうかを悩んでいます。
ようするにトップを走り続ける論文を書くような人たちのようにRelated workに10本近く載せるのがとても大変です。
なにかいい方法はないのでしょうか?
やっぱりただリサーチが不足しているのでしょうかね。
そんなこんなで〆切は来週です。
やばいですね。
それでは
人とコンピュータの未来に幸あれ!
Thinkpadのトラックポイントを変えました!
こんにちは!
まぐろです。
大学院に入ってから輪講(あるテーマについて授業を行う)が始まりまして、かーなり忙しいです。
私的にやるからにはつまらない発表はしたくないので、気合を入れすぎているからかもしれませんが。
でも輪講でやる気のない発表をする人は授業を取ることをしないでほしいですね。
愚痴になってしまいましたね。
それはさておき、私はThinkpad x1carbonを使っているのですが、トラックポイント(真ん中の梅干しみたいな赤ぽち)が摩耗してマウス感度が異常に低くなっていました。
そこで、Lenovo公式の別売りのトラックポイントを購入して付け替えてみたのですが、とんでもない速度でポインティングできるようになって私はさっきから満面の笑みです。
いろんな記事の方法を試してもダメだったので、とても満足しています。
同じような境遇の方がいれば是非買ってください。
しかし、10個入りしかなく1,000円ちょいするので高い気がしなくもありません笑
でもそんなに劣化するものでもないはずなので、数か月に一回くらい変えようと思っています。
ベンチプレスも目標の105kgが上がったので、嬉しい事続きです。
モチベも上がったところで研究を頑張っていこうと思います。
それでは
人とコンピュータの未来に幸あれ!
やる気が出ない日
おはようございます!
まぐろです。
前回の投稿は字下げをしてみて投稿したのですが、なんか見にくいですね。
ブログとかでは字下げはしないほうがよいのでしょうか?
それはさておき、昨日は久しぶりに研究に対して何も熱が湧かない日でした。
普段は研究が永遠と楽しいので何も問題はないのですが、珍しく昨日は絶望的にダメダメでした。
普段からやる気が異常にない日がないので、自分のケアの仕方もろくにわからずただただ困惑していました。
そういった日はどのようにみなさんケアしているのでしょうか?
仕方なく僕はゲーセンに行ってゲームをしてジムで筋トレとランニングをしてきました。
それはそうと先日ベンチプレスがやっと100kgあがるとこまで帰ってきました。
真面目に筋トレすると戻ってくるものですね。
次の目標は105kgです。
そんなこんなで実のない一日でしたが、おいしいごはんを食べてジムで楽しく筋トレできたので満足でした。
今日はいい感じにやる気があるのでPRMLの続きをやっていきたいと考えています。
それでは、
人とコンピュータの未来に幸あれ!
MIって?
こんばんは!
まぐろです。
今日はss-InfoGANを読んでいるときに出てきた「MI」という単語についてでも書こうかなと思います。
MI lossという風な書かれ方をしていたので、MI lossを調べてみたのですが、一発で出てきてくれません、、、
日本語の文献もなかったので、仕方なく一つずつ出てきたページを眺めていたのですが、途中で情報量の話をしているのに気が付きました。
そこで閃きました。
MIってMutual Information(相互情報量)か?
その通りでした。
ss-InfoGANの元の論文であるInfoGANではMIという表現は一度も使っていなかったので、困り果てていました。
普段は期待値や分散の計算をシコシコやるだけだったので、情報理論の省略表記に慣れていないのを痛感しました。
と、いうことで情報理論の復習の旅に出ることにしますorz
そんなこんなでまた自分の無知を恥じた昼下がりでした。
それとは話が変わるのですが、最近Qiita用のネタは溜まっていく一方なので、そろそろ記事を書こうかなと思っています。
もしよろしければこちらにも記事紹介を上げるので見てみてください。
では、
人とコンピュータの未来に幸あれ!