Python深度學習pytorch神經網絡塊的網絡之VGG

與芯片設計中工程師從放置晶體管到邏輯元件再到邏輯塊的過程類似,神經網絡結構的設計也逐漸變得更加抽象。研究人員開始從單個神經元的角度思考問題,發展到整個層次,現在又轉向模塊,重復各層的模式。

使用塊的想法首先出現在牛津大學的視覺幾何組(visualgeometry Group)(VGG)的VGG網絡中。通過使用循環和子程序,可以很容易地在任何現代深度學習框架的代碼中實現這些重復的結構。

VGG塊

經典卷積神經網絡的基本組成部分是下面的這個序列:

1.帶填充以保持分辨率的卷積層

2.非線性激活函數,如ReLU

3.匯聚層,如最大匯聚層

而一個VGG塊與之類似,由一系列卷積層組成,後面再加上用於空間下采樣的最大匯聚層。

在最初的VGG論文中,作者使用瞭帶有 3 × 3卷積核、填充為1(保持高度和寬度)的卷積層,和帶有 2 × 2 池化窗口、步幅為2(每個塊後的分辨率減半)的最大匯聚層。

在下面的代碼中,我們定義瞭一個名為vgg_block的函數來實現VGG塊。

該函數有三個參數,分別對應於卷積層的數量num_convs、輸入通道的數量in_channels和輸出通道的數量out_channels。

import torch
from torch import nn
from d2l import torch as d2l

def vgg_block(num_convs, in_channels, out_channels):
	layers = []
	for _ in range(num_convs):
		layers.append(nn.Conv2d(in_channels, out_channels, kernel_size = 3, padding=1))
		leyers.append(nn.ReLU())
		in_channels = out_channels
	layers.append(nn.MaxPool2d(kernel_size=2, stride=2))
	return nn.Sequential(*layers)

VGG網絡

與AlexNet、LeNet一樣,VGG網絡可以分為兩個部分:第一部分主要由卷積層和匯聚層組成,第二部分由全連接層組成。如下圖所示:

在這裡插入圖片描述

VGG神經網絡連續連接上圖的幾個VGG塊(在vgg_block函數中定義)。其中有超參數變量conv_arch。該變量指定瞭每個VGG塊裡的卷積層的個數和輸出通道數。全連接模塊則與AlexNet中的相同。

原始VGG網絡中有5個卷積塊,其中前兩個塊各有一個卷積層,後三個塊包含兩個卷積層。第一個模塊有64個輸出通道,每個後續模塊將輸出通道數量翻倍,直到數字達到512。由於該網絡使用8個卷積層和3個全連接層,因此它通常被稱為VGG-11。

conv_arch = ((1, 64), (1, 128), (2, 256), (2, 512), (2, 512))

下面的代碼實現瞭VGG-11。可以通過在conv_arch上執行for循環來簡單實現。

def vgg(conv_arch):
	conv_blks = []
	in_channels = 1
	# 卷積層部分
	for (num_convs, out_channels) in conv_arch:
		conv_blks.append(vgg_block(num_convs, in_cannels, out_channels))
		in_channels = out_channels

	return nn.Sequential(
		*conv_blks, nn.Flatten(),
		# 全連接層部分
		nn.Linear(out_channels * 7 * 7, 4096), nn.ReLU(), nn.Dropout(0.5),
		nn.Linear(4096, 4096), nn.ReLU(), nn.Dropout(0.5),
		nn.Linear(4096, 10)
	)

net = vgg(conv_arch)

接下來,我們將構建一個高度和寬度為224的單通道數據樣本,以觀察每個層輸出的形狀。

X = torch.randn(size=(1, 1, 224, 224))
for blk in net:
	X = blk(X)
	print(blk.__class__.__name__, 'output shape: \t', X.shape)
Sequential output shape: torch.Size([1, 64, 112, 112])
Sequential output shape: torch.Size([1, 128, 56, 56])
Sequential output shape: torch.Size([1, 256, 28, 28])
Sequential output shape: torch.Size([1, 512, 14, 14])
Sequential output shape: torch.Size([1, 512, 7, 7])
Flatten output shape: torch.Size([1, 25088])
Linear output shape: torch.Size([1, 4096])
ReLU output shape: torch.Size([1, 4096])
Dropout output shape: torch.Size([1, 4096])
Linear output shape: torch.Size([1, 4096])
ReLU output shape: torch.Size([1, 4096])
Dropout output shape: torch.Size([1, 4096])
Linear output shape: torch.Size([1, 10])

我們在每個塊的高度和寬度減半,最終高度和寬度都為7。最後再展平表示,送入全連接層處理。

訓練模型

由於VGG-11比AlexNet計算量更大,因此我們構建瞭一個通道數較少的網絡,足夠用於訓練Fashion-MNIST數據集。

ratio = 4
small_conv_arch = [(pair[0], pair[1] // ratio) for pair in conv_arch]
net = vgg(small_conv_arch)

除瞭使用略高的學習率外,模型訓練過程與AlexNet類似。

lr, num_epochs, batch_size = 0.05, 10, 128

train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size, resize=224)
d2l.train_ch6(net, train_iter, test_iter, num_epochs, lr, d2l.try_gpu())
loss 0.175, train axx 0.935, test acc 0.917
2559.6 examples/sec on cuda:0

在這裡插入圖片描述

以上就是Python神經網絡塊的網絡之VGG深度學習的詳細內容,更多關於Python神經網絡VGG塊的網絡的資料請關註WalkonNet其它相關文章!

推薦閱讀: