對PyTorch中inplace字段的全面理解
例如
torch.nn.ReLU(inplace=True)
inplace=True
表示進行原地操作,對上一層傳遞下來的tensor直接進行修改,如x=x+3;
inplace=False
表示新建一個變量存儲操作結果,如y=x+3,x=y;
inplace=True
可以節省運算內存,不用多存儲變量。
補充:PyTorch中網絡裡面的inplace=True字段的意思
在例如nn.LeakyReLU(inplace=True)中的inplace字段是什麼意思呢?有什麼用?
inplace=True的意思是進行原地操作,例如x=x+5,對x就是一個原地操作,y=x+5,x=y,完成瞭與x=x+5同樣的功能但是不是原地操作。
上面LeakyReLU中的inplace=True的含義是一樣的,是對於Conv2d這樣的上層網絡傳遞下來的tensor直接進行修改,好處就是可以節省運算內存,不用多儲存變量y。
inplace=True means that it will modify the input directly, without allocating any additional output. It can sometimes slightly decrease the memory usage, but may not always be a valid operation (because the original input is destroyed). However, if you don’t see an error, it means that your use case is valid.
以上為個人經驗,希望能給大傢一個參考,也希望大傢多多支持WalkonNet。
推薦閱讀:
- PyTorch一小時掌握之基本操作篇
- Pytorch中Softmax與LogSigmoid的對比分析
- Pytorch中如何調用forward()函數
- pytorch 梯度NAN異常值的解決方案
- PyTorch 如何自動計算梯度