Tensorflow2.4從頭訓練Word Embedding實現文本分類

前言

本文主要使用 cpu 版本的 tensorflow 2.4 版本完成文本的 word embedding 訓練,並且以此為基礎完成影評文本分類任務。

具體介紹

1. 三種文本向量化方法

通常在深度學習模型中我們的輸入都是以向量形式存在的,所以我們處理數據過程的重要一項任務就是將文本中的 token (一個 token 可以是英文單詞、一個漢字、一個中文詞語等,需要自己規定)轉換成對應的向量,本文會給出三種常見文本向量化的策略。

(1)One-Hot Encodings 。其實很好理解,假如我們的數據是“我是人”,因為有 3 個不同的漢字,我會給每個漢字一個對應的索引,然後我會創建一個長度為 3 的向量,假如我給每個漢字賦予的索引為“我->0”“是->1”“人->2”,那麼每個字對應的 One-Hot Encodings 為 [1,0,0]、[0,1,0]、[0,0,1] 。那麼“我是人”的這個句子的向量表示就可以將這三個向量拼接起來即可。這種方法的優點明顯,方便理解和實現,但是缺點也很明顯,效率非常低。One-Hot Encodings 所產生的的向量都是稀疏的。假如詞匯表中有 1000 個單詞,要對每個單詞進行向量化編碼,其中幾乎 99% 的位置都為零。

(2)encode each word with a unique num 。我們可以使用唯一的數字對每個單詞進行編碼。還是上面的例子,我們給每個字分配一個對應的整數,假如分配結果為 “我->1”“是->2”“人->3”,我就能將句子“我是人”這句話就可以編碼為一個稠密向量,如 [1,2,3]。此時的向量是一個稠密向量(所有位置都有有意義的整數填充)。但是這種方法有個缺點,編碼的數字是可以人為任意設置,它不能捕獲漢字之間的任何語義關系,也無法從數字上看出對應的近義詞之間的關系。

(3)Word Embeddings 。詞嵌入是一種將單詞編碼為有效稠密向量的方法,其中相似的單詞具有相似相近的向量編碼。詞嵌入是浮點類型的稠密向量,向量的長度需要人為指定。我們不必像上面兩種方法手動去設置編碼中的向量值,而是將他們都作為可訓練的參數,通過給模型喂大量的數據,不斷的訓練來捕獲單詞之間的細粒度語義關系,常見的詞向量維度可以設置從 8 維到 1024 維范圍中的任意整數。理論上維度越高詞嵌入的語義越豐富但是訓練成本越高。如我們上面的例子,我們設置詞嵌入維度為 4 ,最後通過訓練得到的詞嵌入可能是 “我->[-3.2, 1.5, -4,6, 3.4]”“是-> [0.2, 0.6, -0.6, 1.5]”“人->[3.4, 5.3, -7.2, 1.5]”。

2. 獲取數據

(1)本次我們要用到的是數據是 Large Movie Review Dataset ,我們需要使用 tensorflow 的內置函數從網絡上下載到本地磁盤,為瞭簡化數據,我們將訓練數據目錄中的 unsup 子目錄都刪除,最後取出 20000 個訓練樣本作為訓練集,取出 5000 個訓練樣本作為驗證集。

import io
import os
import re
import shutil
import string
import tensorflow as tf
from tensorflow.keras import Sequential
from tensorflow.keras.layers import Dense, Embedding, GlobalAveragePooling1D
from tensorflow.keras.layers import TextVectorization
batch_size = 512
seed = 1
url = "https://ai.stanford.edu/~amaas/data/sentiment/aclImdb_v1.tar.gz"
dataset = tf.keras.utils.get_file("aclImdb_v1.tar.gz", url,  untar=True, cache_dir='.', cache_subdir='')
dataset_dir = os.path.join(os.path.dirname(dataset), 'aclImdb')
train_dir = os.path.join(dataset_dir, 'train')
remove_dir = os.path.join(train_dir, 'unsup')
shutil.rmtree(remove_dir)
train_datas = tf.keras.utils.text_dataset_from_directory( 'aclImdb/train', batch_size=batch_size, validation_split=0.2, subset='training', seed=seed)
val_datas = tf.keras.utils.text_dataset_from_directory( 'aclImdb/train', batch_size=batch_size, validation_split=0.2, subset='validation', seed=seed)

(2)這裡展示出 2 條樣本,每個樣本都有一個標簽和一個文本描述,標簽 1 表示評論是 positive , 標簽 0 表示評論是: negative 。

1 b'The first time I saw this film, I was in shock for days afterwards. Its painstaking and absorbing treatment of the subject holds the attention, helped by good acting and some really intriguing music. The ending, quite simply, had me gasping. First rate!'
0 b"This is quite possibly the worst movie of all time. It stars Shaquille O'Neil and is about a rapping genie. Apparently someone out there thought that this was a good idea and got suckered into dishing out cash to produce this wonderful masterpiece. The movie gets 1 out of 10."

3. 處理數據

(1)為瞭保證在加載數據的時候不會出現 I/O 不會阻塞,我們在從磁盤加載完數據之後,使用 cache 會將數據保存在內存中,確保在訓練模型過程中數據的獲取不會成為訓練速度的瓶頸。如果說要保存的數據量太大,可以使用 cache 創建磁盤緩存提高數據的讀取效率。另外我們還使用 prefetch 在訓練過程中可以並行執行數據的預獲取。

AUTOTUNE = tf.data.AUTOTUNE
train_datas = train_datas.cache().prefetch(buffer_size=AUTOTUNE)
val_datas = val_datas.cache().prefetch(buffer_size=AUTOTUNE)

(2)將訓練數據中的標簽去掉,隻保留文本描述,然後使用 TextVectorization 對數據進行預處理,先轉換層小寫英文,然後再將無用的字符剔除,並且我們規定瞭每個文本的最大長度為 100 個單詞,超過的文本部分會被丟棄。最後將訓練數據中的詞都放入一個最大為 10000 的詞匯表中,其中有一個特殊的表示 OOV 的 [UNK] ,也就說來自訓練數據中的詞隻有 9999 個,使用 vectorize_layer 為每個單詞進行 int 向量化,其實就是在文章開頭提到的第二種向量化策略。

def handle(input_data):
    lowercase = tf.strings.lower(input_data)
    stripped_html = tf.strings.regex_replace(lowercase, '<br />', ' ')
    return tf.strings.regex_replace(stripped_html, '[%s]' % re.escape(string.punctuation), '')
vocab_size = 10000
sequence_length = 100
vectorize_layer = TextVectorization(standardize=handle,
                                    max_tokens=vocab_size,
                                    output_mode='int',
                                    output_sequence_length=sequence_length)
text_datas = train_datas.map(lambda x, y: x)
vectorize_layer.adapt(text_datas)

4. 搭建、訓練模型

我們此次搭建的模型是一個“Continuous bag of words" 風格的模型。

(1)第一層是已經上面初始化好的 vectorize_layer ,它可以將文本經過預處理,然後將分割出來的單詞都賦予對應的整數。

(2)第二層是一個嵌入層,我們定義瞭詞嵌入維度為 32,也就是為每一個詞對應的整數都轉換為一個 32 維的向量來進行表示,這些向量的值是可以在模型訓練時進行學習的權重參數。通過此層輸出的維度為:(batch_size, sequence_length, embedding_dim)。

(3)第三層是一個 GlobalAveragePooling1D 操作,因為每個樣本的維度為 (sequence_length, embedding_dim) ,該操作可以按照對 sequence_length 維度求平均值來為每個樣本返回一個固定長度的輸出向量,最後輸出的維度為:(batch_size, embedding_dim)。

(4)第四層是一個輸出 32 維向量的全連接層操作,並且使用 relu 激活函數進行非線性變化。

(5)最後一層是一個輸出 1 維向量的全連接層操作,表示該樣本的屬於 positive 的概率。

(6)優化器選擇 Adam ,損失函數為 BinaryCrossentropy ,評估指標為 accuracy

embedding_dim=32
model = Sequential([
  vectorize_layer,
  Embedding(vocab_size, embedding_dim, name="embedding"),
  GlobalAveragePooling1D(),
  Dense(32, activation='relu'),
  Dense(1)
])
model.compile(optimizer='adam', loss=tf.keras.losses.BinaryCrossentropy(from_logits=True),  metrics=['accuracy'])
model.fit(train_datas, validation_data=val_datas, epochs=20, callbacks=[tensorboard_callback])

訓練過程打印:

Epoch 1/20
40/40 [==============================] – 3s 52ms/step – loss: 0.6898 – accuracy: 0.4985 – val_loss: 0.6835 – val_accuracy: 0.5060
Epoch 2/20
40/40 [==============================] – 2s 50ms/step – loss: 0.6654 – accuracy: 0.4992 – val_loss: 0.6435 – val_accuracy: 0.5228

Epoch 19/20
40/40 [==============================] – 2s 49ms/step – loss: 0.1409 – accuracy: 0.9482 – val_loss: 0.4532 – val_accuracy: 0.8210
Epoch 20/20
40/40 [==============================] – 2s 48ms/step – loss: 0.1327 – accuracy: 0.9528 – val_loss: 0.4681 – val_accuracy: 0.8216    

5. 導出訓練好的詞嵌入向量

這裡我們取出已經訓練好的詞嵌入,然後打印出前三個單詞以及詞向量,因為索引 0 的詞是空字符,所以直接跳過瞭,隻顯示瞭兩個單詞的內容。我們可以將所有訓練好的詞嵌入向量都寫入本地磁盤的文件,供以後使用。

weights = model.get_layer('embedding').get_weights()[0]
vocab = vectorize_layer.get_vocabulary()
for i, word in enumerate(vocab[:3]):
    if i == 0:
        continue   
    vecoter = weights[i]
    print(word,"||", ','.join([str(x) for x in vecoter]))

單詞和對應詞嵌入向量:

[UNK] || 0.020502748,-0.038312573,-0.036612183,-0.050346173,-0.07899615,-0.03143682,-0.06429587,0.07334388,-0.01887771,-0.08744612,-0.021639654,0.04726765,0.042426057,0.2240213,0.022607388,-0.08052631,0.023943739,0.05245169,-0.017815227,0.053340062,-0.033523336,0.057832733,-0.007486237,-0.16336738,0.022891225,0.12611994,-0.11084395,-0.0076115266,-0.03733231,-0.010371257,-0.045643456,-0.05392711
the || -0.029460065,-0.0021714368,-0.010394105,-0.03353872,-0.097529344,-0.05249973,-0.03901586,0.009200298,-0.085409686,-0.09302798,-0.07607663,0.046305165,-0.010357974,0.28357282,0.009442638,-0.036655612,0.063269086,0.06721396,0.063007854,0.03185595,-0.014642656,0.089468665,-0.014918188,-0.15671577,0.043026615,0.17086154,-0.0461816,0.021180542,-0.045269016,-0.101499856,-0.03948177,0.028299723    

以上就是Tensorflow2.4從頭訓練Word Embedding實現文本分類的詳細內容,更多關於Tensorflow Word Embedding的資料請關註WalkonNet其它相關文章!

推薦閱讀: