[source]

BatchNormalization

keras.layers.normalization.BatchNormalization(axis=-1, momentum=0.99, epsilon=0.001, center=True, scale=True, beta_initializer='zeros', gamma_initializer='ones', moving_mean_initializer='zeros', moving_variance_initializer='ones', beta_regularizer=None, gamma_regularizer=None, beta_constraint=None, gamma_constraint=None)

Batch normalization layer (Ioffe and Szegedy, 2014).

各バッチ毎に前の層の出力(このレイヤーへの入力)を正規化します. つまり,平均を0,標準偏差値を1に近づける変換を適用します.

Arguments

  • axis: 整数.正規化する軸(典型的には,特徴量の軸).例えば,data_format="channels_first"Conv2Dの後では,axis=1にします.
  • momentum: 移動平均のためのMomentum.
  • epsilon: 0除算を避けるために分散加算する微小量.
  • center: Trueなら,正規化されたテンソルにbetaのオフセットを加算します.Falseなら, betaは無視します.
  • scale: Trueなら, gammaをかけます.Falseなら, gammaは使われません.次のレイヤーがlinear (例えば nn.relu も)ならば,次のレイヤーによってスケーリングされるので無効にできます.
  • beta_initializer: betaの重みのためのInitializer.
  • gamma_initializer: gammaの重みのためのInitializer.
  • moving_mean_initializer: 移動平均のためのInitializer.
  • moving_variance_initializer: 移動分散のためのInitializer.
  • beta_regularizer: betaの重みのためのオプショナルなRegularizer.
  • gamma_regularizer: gammaの重みのためのオプショナルなRegularizer.
  • beta_constraint: betaの重みのためのオプショナルなConstraint.
  • gamma_constraint: gammaの重みのためのオプショナルなConstraint.

入力のshape

任意. このレイヤーがモデルの最初のレイヤーとなる場合は,input_shape引数(サンプル軸を含まない整数のタプル)を与える必要があります.

出力のshape

入力と同じです.

参考文献