使用pytorch實現線性回歸

線性回歸都是包括以下幾個步驟:定義模型、選擇損失函數、選擇優化函數、 訓練數據、測試

import torch
import matplotlib.pyplot as plt
# 構建數據集
x_data= torch.Tensor([[1.0],[2.0],[3.0],[4.0],[5.0],[6.0]])
y_data= torch.Tensor([[2.0],[4.0],[6.0],[8.0],[10.0],[12.0]])
#定義模型
class LinearModel(torch.nn.Module):
    def __init__(self):
        super(LinearModel, self).__init__()
        self.linear= torch.nn.Linear(1,1) #表示輸入輸出都隻有一層,相當於前向傳播中的函數模型,因為我們一般都不知道函數是什麼形式的
 
    def forward(self, x):
        y_pred= self.linear(x)
        return y_pred
model= LinearModel()
# 使用均方誤差作為損失函數
criterion= torch.nn.MSELoss(size_average= False)
#使用梯度下降作為優化SGD
# 從下面幾種優化器的生成結果圖像可以看出,SGD和ASGD效果最好,因為他們的圖像收斂速度最快
optimizer= torch.optim.SGD(model.parameters(),lr=0.01)
# ASGD
# optimizer= torch.optim.ASGD(model.parameters(),lr=0.01)
# optimizer= torch.optim.Adagrad(model.parameters(), lr= 0.01)
# optimizer= torch.optim.RMSprop(model.parameters(), lr= 0.01)
# optimizer= torch.optim.Adamax(model.parameters(),lr= 0.01)
# 訓練
epoch_list=[]
loss_list=[]
for epoch in range(100):
    y_pred= model(x_data)
    loss= criterion(y_pred, y_data)
    epoch_list.append(epoch)
    loss_list.append(loss.item())
    print(epoch, loss.item())
 
    optimizer.zero_grad() #梯度歸零
    loss.backward()  #反向傳播
    optimizer.step() #更新參數
 
print("w= ", model.linear.weight.item())
print("b= ",model.linear.bias.item())
 
x_test= torch.Tensor([[7.0]])
y_test= model(x_test)
print("y_pred= ",y_test.data)
 
plt.plot(epoch_list, loss_list)
plt.xlabel("epoch")
plt.ylabel("loss_val")
plt.show()

使用SGD優化器圖像:                                                      

使用ASGD優化器圖像:

使用Adagrad優化器圖像:                                                 

使用Adamax優化器圖像:

以上就是本文的全部內容,希望對大傢的學習有所幫助,也希望大傢多多支持WalkonNet。

推薦閱讀:

    None Found