正規化層:ニューラルネットワークの学習の安定化、高速化、汎化に大きな貢献

図1 2次元の入力に対し3層のReLUのネットワークを使った場合 このとき、ReLUの境界面(線)が入力空間をどのように分割するかを示す。境界内は関数は線形になっている。もし入力が特定の境界内に偏っている場合は関数全体が線形になる。(図:M. Raghu  et al., “On the Expressive Power of Deep Neural Networks” fig.1, https://arxiv.org/abs/1606.05336より引用)
図1 2次元の入力に対し3層のReLUのネットワークを使った場合
このとき、ReLUの境界面(線)が入力空間をどのように分割するかを示す。境界内は関数は線形になっている。もし入力が特定の境界内に偏っている場合は関数全体が線形になる。(図:M. Raghu et al., “On the Expressive Power of Deep Neural Networks” fig.1, https://arxiv.org/abs/1606.05336より引用)

カーソルキー(←/→)でも操作できます