またーり くおんつ ノート

お勉強した初歩的なことを書くチラシの裏

Batch Renormalization: Towards Reducing Minibatch Dependence in Batch-Normalized Modelsを読んだ

今日からNIPS 2017のaccepted paperを毎日30分で斜め読みしていくぞぃ.
(印刷してる時にすでに短時間で見るの無理だろ、というのにいくつか遭遇したけど.)

もうすごい昔に出てた気がしちゃう、すでに懐かしい感じの
batch normalizationの改良版として出てきたこいつ.

[1702.03275] Batch Renormalization: Towards Reducing Minibatch Dependence in Batch-Normalized Models

何やったか

batchsizeが小さい場合やnon-i.i.dの場合でも上手くワークする手法.
minibatch内にあるサンプルの偏りに依存しない形.

端的には次で終わり.

f:id:aki-don:20171004085616p:plain

ちょっとずつ { \mu , \sigma } を真値と思われるところに移動させていく.

結果

minibatchが小さい時に収束が早いということとnon i.i.dのケースについて実験.
特にnon-i.i.dの時に有効性が印象的.

f:id:aki-don:20171004090339p:plain

基本的にはBatch Normalization入れるならこっち入れたら?のスタイル.

所感

Conclusionに

Batch Renormalization offers a promise of improving the performance of any model that would normally use batchnorm.

とあって強い.

ここまでで時間来たので、出勤...