PyTorch dropout設置訓練和測試模式的實現

看代碼吧~

class Net(nn.Module):
…
model = Net()
…
model.train() # 把module設成訓練模式,對Dropout和BatchNorm有影響
model.eval() # 把module設置為預測模式,對Dropout和BatchNorm模塊有影響

補充:Pytorch遇到的坑——訓練模式和測試模式切換

由於訓練的時候Dropout和BN層起作用,每個batch BN層的參數不一樣,dropout在訓練時隨機失效點具有隨機性,所以訓練和測試要區分開來。

使用時切記要根據實際情況切換:

model.train()
model.eval()

補充:Pytorch在測試與訓練過程中的驗證結果不一致問題

引言

今天在使用Pytorch導入此前保存的模型進行測試,在過程中發現輸出的結果與驗證結果差距甚大,經過排查後發現是forward與eval()順序問題。

現象

此前的錯誤代碼是

    input_cpu = torch.ones((1, 2, 160, 160))
    target_cpu =torch.ones((1, 2, 160, 160))
    target_gpu, input_gpu = target_cpu.cuda(), input_cpu.cuda()
    model.set_input_2(input_gpu, target_gpu)
    model.eval()
    model.forward()

應該改為

    input_cpu = torch.ones((1, 2, 160, 160))
    target_cpu =torch.ones((1, 2, 160, 160))
    target_gpu, input_gpu = target_cpu.cuda(), input_cpu.cuda()
    model.set_input_2(input_gpu, target_gpu)
    # 先forward再eval
    model.forward()
    model.eval()

當時有個疑慮,為什麼要在forward後面再加eval(),查瞭下相關資料,主要是在BN層以及Dropout的問題。當使用eval()時,模型會自動固定BN層以及Dropout,選取訓練好的值,否則則會取平均,可能導致生成的圖片顏色失真。

以上為個人經驗,希望能給大傢一個參考,也希望大傢多多支持WalkonNet。

推薦閱讀: