pytorch中.to(device) 和.cuda()的區別說明

原理

.to(device) 可以指定CPU 或者GPU

device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu") # 單GPU或者CPU
model.to(device)
#如果是多GPU
if torch.cuda.device_count() > 1:
  model = nn.DataParallel(model,device_ids=[0,1,2])
model.to(device)

.cuda() 隻能指定GPU

#指定某個GPU
os.environ['CUDA_VISIBLE_DEVICE']='1'
model.cuda()
#如果是多GPU
os.environment['CUDA_VISIBLE_DEVICES'] = '0,1,2,3'
device_ids = [0,1,2,3]
net  = torch.nn.Dataparallel(net, device_ids =device_ids)
net  = torch.nn.Dataparallel(net) # 默認使用所有的device_ids 
net = net.cuda()
class DataParallel(Module):
    def __init__(self, module, device_ids=None, output_device=None, dim=0):
        super(DataParallel, self).__init__()

        if not torch.cuda.is_available():
            self.module = module
            self.device_ids = []
            return

        if device_ids is None:
            device_ids = list(range(torch.cuda.device_count()))
        if output_device is None:
            output_device = device_ids[0]

補充:Pytorch使用To方法編寫代碼在不同設備(CUDA/CPU)上兼容(device-agnostic)

以前版本的PyTorch編寫device-agnostic代碼非常困難(即,在不修改代碼的情況下在CUDA可以使用或者隻能使用CPU的設備上運行)。

device-agnostic的概念

即設備無關,可以理解為無論什麼設備都可以運行您編寫的代碼。(PS:個人理解,我沒有在網上找到專業解釋)

PyTorch 0.4.0使代碼兼容

PyTorch 0.4.0通過兩種方法使代碼兼容變得非常容易:

張量的device屬性為所有張量提供瞭torch.device設備。(註意:get_device僅適用於CUDA張量)

to方法Tensors和Modules可用於容易地將對象移動到不同的設備(代替以前的cpu()或cuda()方法)

我們推薦以下模式:

# 開始腳本,創建一個張量
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
...
# 但是無論你獲得一個新的Tensor或者Module
# 如果他們已經在目標設備上則不會執行復制操作
input = data.to(device)
model = MyModule(...).to(device)

以上為個人經驗,希望能給大傢一個參考,也希望大傢多多支持WalkonNet。

推薦閱讀: