批標準化層 tf.keras.layers.Batchnormalization()解析

批標準化層 tf.keras.layers.Batchnormalization()

tf.keras.layers.Batchnormalization()

重要參數:

  • training:佈爾值,指示圖層應在訓練模式還是在推理模式下運行。
  • training=True:該圖層將使用當前批輸入的均值和方差對其輸入進行標準化。
  • training=False:該層將使用在訓練期間學習的移動統計數據的均值和方差來標準化其輸入。

BatchNormalization 廣泛用於 Keras 內置的許多高級卷積神經網絡架構,比如 ResNet50、Inception V3 和 Xception。

BatchNormalization 層通常在卷積層或密集連接層之後使用。

批標準化的實現過程

  • 求每一個訓練批次數據的均值
  • 求每一個訓練批次數據的方差
  • 數據進行標準化
  • 訓練參數γ,β
  • 輸出y通過γ與β的線性變換得到原來的數值

在訓練的正向傳播中,不會改變當前輸出,隻記錄下γ與β。在反向傳播的時候,根據求得的γ與β通過鏈式求導方式,求出學習速率以至改變權值。

對於預測階段時所使用的均值和方差,其實也是來源於訓練集。比如我們在模型訓練時我們就記錄下每個batch下的均值和方差,待訓練完畢後,我們求整個訓練樣本的均值和方差期望值,作為我們進行預測時進行BN的的均值和方差。

批標準化的使用位置

原始論文講在CNN中一般應作用與非線性激活函數之前,但是,實際上放在激活函數之後效果可能會更好。

# 放在非線性激活函數之前
model.add(tf.keras.layers.Conv2D(64, (3, 3)))
model.add(tf.keras.layers.BatchNormalization())
model.add(tf.keras.layers.Activation('relu'))

# 放在激活函數之後
model.add(tf.keras.layers.Conv2D(64, (3, 3), activation='relu'))
model.add(tf.keras.layers.BatchNormalization())

tf.keras.layers.BatchNormalization使用細節

關於keras中的BatchNormalization使用,官方文檔說的足夠詳細。本文的目的旨在說明在BatchNormalization的使用過程中容易被忽略的細節。

在BatchNormalization的Arguments參數中有trainable屬性;以及在Call arguments參數中有training。兩個都是bool類型。第一次看到有兩個參數的時候,我有點懵,為什麼需要兩個?

後來在查閱資料後發現瞭兩者的不同作用。

1,trainable是Argument參數,類似於c++中構造函數的參數一樣,是構建一個BatchNormalization層時就需要傳入的,至於它的作用在下面會講到。

2,training參數時Call argument(調用參數),是運行過程中需要傳入的,用來控制模型在那個模式(train還是interfere)下運行。關於這個參數,如果使用模型調用fit()的話,是可以不給的(官方推薦是不給),因為在fit()的時候,模型會自己根據相應的階段(是train階段還是inference階段)決定training值,這是由learning——phase機制實現的。

重點

關於trainable=False:如果設置trainable=False,那麼這一層的BatchNormalization層就會被凍結(freeze),它的trainable weights(可訓練參數)(就是gamma和beta)就不會被更新。

註意:freeze mode和inference mode是兩個概念。

但是,在BatchNormalization層中,如果把某一層BatchNormalization層設置為trainable=False,那麼這一層BatchNormalization層將一inference mode運行,也就是說(meaning that it will use the moving mean and the moving variance to normalize the current batch, rather than using the mean and variance of the current batch).

總結

以上為個人經驗,希望能給大傢一個參考,也希望大傢多多支持WalkonNet。

推薦閱讀: