python之tensorflow手把手實例講解貓狗識別實現

作為tensorflow初學的大三學生,本次課程作業的使用貓狗數據集做一個二分類模型。

一,貓狗數據集數目構成

train cats:1000 ,dogs:1000
test cats: 500,dogs:500
validation cats:500,dogs:500

二,數據導入

train_dir = 'Data/train'
test_dir = 'Data/test'
validation_dir = 'Data/validation'
train_datagen = ImageDataGenerator(rescale=1/255,
                                   rotation_range=10,
                                   width_shift_range=0.2,  #圖片水平偏移的角度
                                   height_shift_range=0.2,  #圖片數值偏移的角度
                                   shear_range=0.2,  #剪切強度 
                                   zoom_range=0.2,   #隨機縮放的幅度
                                   horizontal_flip=True,   #是否進行隨機水平翻轉
#                                    fill_mode='nearest'
                                  )
train_generator = train_datagen.flow_from_directory(train_dir,
                 (224,224),batch_size=1,class_mode='binary',shuffle=False)
test_datagen = ImageDataGenerator(rescale=1/255)
test_generator = test_datagen.flow_from_directory(test_dir,
                 (224,224),batch_size=1,class_mode='binary',shuffle=True)
validation_datagen = ImageDataGenerator(rescale=1/255)
validation_generator = validation_datagen.flow_from_directory(
                validation_dir,(224,224),batch_size=1,class_mode='binary')
print(train_datagen)
print(test_datagen)
print(train_datagen)

三,數據集構建

我這裡是將ImageDataGenerator類裡的數據提取出來,將數據與標簽分別存放在兩個列表,後面在轉為np.array,也可以使用model.fit_generator,我將數據放在內存為瞭後續調參數時模型訓練能更快讀取到數據,不用每次訓練一整輪都去讀一次數據(應該是這樣的…我是這樣理解…)
註意我這裡的數據集構建後,三種數據都是存放在內存中的,我電腦內存是16g的可以存放下。

train_data=[]
train_labels=[]
a=0
for data_train, labels_train in train_generator:
    train_data.append(data_train)
    train_labels.append(labels_train)
    a=a+1
    if a>1999:
        break
x_train=np.array(train_data)
y_train=np.array(train_labels)
x_train=x_train.reshape(2000,224,224,3)
test_data=[]
test_labels=[]
a=0
for data_test, labels_test in test_generator:
    test_data.append(data_test)
    test_labels.append(labels_test)
    a=a+1
    if a>999:
        break
x_test=np.array(test_data)
y_test=np.array(test_labels)
x_test=x_test.reshape(1000,224,224,3)
validation_data=[]
validation_labels=[]
a=0
for data_validation, labels_validation in validation_generator:
    validation_data.append(data_validation)
    validation_labels.append(labels_validation)
    a=a+1
    if a>999:
        break
x_validation=np.array(validation_data)
y_validation=np.array(validation_labels)
x_validation=x_validation.reshape(1000,224,224,3)

四,模型搭建

model1 = tf.keras.models.Sequential([
    # 第一層卷積,卷積核為,共16個,輸入為150*150*1
    tf.keras.layers.Conv2D(16,(3,3),activation='relu',padding='same',input_shape=(224,224,3)),
    tf.keras.layers.MaxPooling2D((2,2)),
    
    # 第二層卷積,卷積核為3*3,共32個,
    tf.keras.layers.Conv2D(32,(3,3),activation='relu',padding='same'),
    tf.keras.layers.MaxPooling2D((2,2)),
    
    # 第三層卷積,卷積核為3*3,共64個,
    tf.keras.layers.Conv2D(64,(3,3),activation='relu',padding='same'),
    tf.keras.layers.MaxPooling2D((2,2)),
    
    # 數據鋪平
    tf.keras.layers.Flatten(),
    tf.keras.layers.Dense(64,activation='relu'),
    tf.keras.layers.Dropout(0.5),
    tf.keras.layers.Dense(1,activation='sigmoid')
])
print(model1.summary())

模型summary:

在這裡插入圖片描述

五,模型訓練

model1.compile(optimize=tf.keras.optimizers.SGD(0.00001),
             loss=tf.keras.losses.binary_crossentropy,
             metrics=['acc'])
history1=model1.fit(x_train,y_train,
# 					validation_split=(0~1)   選擇一定的比例用於驗證集,可被validation_data覆蓋
                  validation_data=(x_validation,y_validation),
                  batch_size=10,
                  shuffle=True,
                  epochs=10)
model1.save('cats_and_dogs_plain1.h5')
print(history1)

在這裡插入圖片描述

plt.plot(history1.epoch,history1.history.get('acc'),label='acc')
plt.plot(history1.epoch,history1.history.get('val_acc'),label='val_acc')
plt.title('正確率')
plt.legend()

在這裡插入圖片描述

可以看到我們的模型泛化能力還是有點差,測試集的acc能達到0.85以上,驗證集卻在0.65~0.70之前跳動。

六,模型測試

model1.evaluate(x_validation,y_validation)

在這裡插入圖片描述

最後我們的模型在測試集上的正確率為0.67,可以說還不夠好,有點過擬合,可能是訓練數據不夠多,後續可以數據增廣或者從驗證集、測試集中調取一部分數據用於訓練模型,可能效果好一些。

到此這篇關於python之tensorflow手把手實例講解貓狗識別實現的文章就介紹到這瞭,更多相關python tensorflow 貓狗識別內容請搜索WalkonNet以前的文章或繼續瀏覽下面的相關文章希望大傢以後多多支持WalkonNet!

推薦閱讀: