Python基於LightGBM進行時間序列預測

前言

當我們考慮時間序列的增強樹時,通常會想到 M5 比賽,其中前十名中有很大一部分使用瞭 LightGBM。但是當在單變量情況下使用增強樹時,由於沒有大量的外生特征可以利用,它的性能非常的糟糕。

首先需要明確的是M4 比賽的亞軍 DID 使用瞭增強樹。但是它作為一個元模型來集成其他更傳統的時間序列方法。在 M4 上公開的代碼中,所有標準增強樹的基準測試都相當糟糕,有時甚至還達不到傳統的預測方法。下面是Sktime 包和他們的論文所做的出色工作[1]:

任何帶有“XGB”或“RF”的模型都使用基於樹的集成。在上面的列表中 Xgboost 在每小時數據集中提供瞭 10.9 的最佳結果!然後,但是這些模型隻是Sktime 在他們框架中做過的簡單嘗試,而 M4 的獲勝者在同一數據集上的得分是 9.3 分……。在該圖表中我們需要記住一些數字,例如來自 XGB-s 的每小時數據集的 10.9 和每周數據集中的樹性模型的“最佳”結果:來自 RF-t-s 的 9.0。

從上圖中就引出瞭我們的目標:創建一個基於LightGBM並且適合個人使用的時間序列的快速建模程序,並且能夠絕對超越這些數字,而且在速度方面可與傳統的統計方法相媲美。

聽起來很困難,並且我們的第一個想法可能是必須優化我們的樹。但是提升樹非常復雜,改動非常費時,並且結果並不一定有效。但是有一點好處是我們正在擬合是單個數據集,是不是可從特征下手呢?

特征

在查看單變量空間中樹的其他實現時都會看到一些特征工程,例如分箱、使用目標的滯後值、簡單的計數器、季節性虛擬變量,也許還有傅裡葉函數。這對於使用傳統的指數平滑等方法是非常棒的。但是我們今天目的是必須對時間元素進行特征化並將其表示為表格數據以提供給樹型模型,LazyProphet這時候就出現瞭。除此以外,LazyProphet還包含一個額外的特征工程元素:將點”連接”起來。

很簡單,將時間序列的第一個點連接起來,並將一條線連接到中途的另一個點,然後將中途的點連接到最後一個點。重復幾次,同時更改將哪個點用作“kink”(中間節點),這就是我們所說的“連接”。

下面張圖能很好地說明這一點。藍線是時間序列,其他線隻是“連接點”:

事實證明,這些隻是加權分段線性基函數。這樣做的一個缺點是這些線的外推可能會出現偏差。為瞭解決這個問題,引入一個懲罰從中點到最後點的每條線的斜率的“衰減”因子。

在這個基礎上加滯後的目標值和傅裡葉基函數,在某些問題上就能夠接近最先進的性能。因為要求很少,因因此我們把它稱作“LazyProphet”。

下面我們看看實際的應用結果。

代碼

這裡使用的數據集都是開源的,並在M-competitions github上發佈。數據已經被分割為訓練和測試集,我們直接使用訓練csv進行擬合,而測試csv用於使用SMAPE進行評估。現在導入LazyProphet:

pip install LazyProphet

安裝後,開始編碼:

import matplotlib.pyplot as plt
import numpy as np
from tqdm import tqdm
import pandas as pd
from LazyProphet import LazyProphet as lp

train_df = pd.read_csv(r'm4-weekly-train.csv')
test_df = pd.read_csv(r'm4-weekly-test.csv')
train_df.index = train_df['V1']
train_df = train_df.drop('V1', axis = 1)
test_df.index = test_df['V1']
test_df = test_df.drop('V1', axis = 1)

導入所有必要的包後將讀入每周數據。創建 SMAPE 函數,它將返回給定預測和實際值的 SMAPE:

def smape(A, F):
  return 100/len(A) * np.sum(2 * np.abs(F - A) / (np.abs(A) +       np.abs(F)))

對於這個實驗將取所有時間序列的平均值與其他模型進行比較。為瞭進行健全性檢查,我們還將獲得的平均 SMAPE,這樣可以確保所做的與比賽中所做的一致。

smapes = []
naive_smape = []
j = tqdm(range(len(train_df)))
for row in j:
  y = train_df.iloc[row, :].dropna()
  y_test = test_df.iloc[row, :].dropna()
  j.set_description(f'{np.mean(smapes)}, {np.mean(naive_smape)}')
  lp_model = LazyProphet(scale=True,
                          seasonal_period=52,
                          n_basis=10,
                          fourier_order=10,
                          ar=list(range(1, 53)),
                          decay=.99,
                          linear_trend=None,
                          decay_average=False)
  fitted = lp_model.fit(y)
  predictions = lp_model.predict(len(y_test)).reshape(-1)
  smapes.append(smape(y_test.values,     pd.Series(predictions).clip(lower=0)))
  naive_smape.append(smape(y_test.values, np.tile(y.iloc[-1], len(y_test))))  
print(np.mean(smapes))
print(np.mean(naive_smape))

在查看結果之前,快速介紹一下 LazyProphet 參數。

scale:這個很簡單,隻是是否對數據進行縮放。默認值為 True 。

seasonal_period:此參數控制季節性的傅立葉基函數,因為這是我們使用 52 的每周頻率。

n_basis:此參數控制加權分段線性基函數。這隻是要使用的函數數量的整數。

Fourier_order:用於季節性的正弦和餘弦對的數量。

ar:要使用的滯後目標變量值。可以獲取多個列表 1-52 。

decay:衰減因子用於懲罰我們的基函數的“右側”。設置為 0.99 表示斜率乘以 (1- 0.99) 或 0.01。

linear_trend:樹的一個主要缺點是它們無法推斷出後續數據的范圍。為瞭克服這個問題,有一些針對多項式趨勢的現成測試將擬合線性回歸以消除趨勢。None 表示有測試,通過 True 表示總是去趨勢,通過 False 表示不測試並且不使用線性趨勢。

decay_average:在使用衰減率時不是一個有用的參數。這是一個trick但不要使用它。傳遞 True 隻是平均基函數的所有未來值。這在與 elasticnet 程序擬合時很有用,但在測試中對 LightGBM 的用處不大。

下面繼續處理數據:

train_df = pd.read_csv(r'm4-hourly-train.csv')
test_df = pd.read_csv(r'm4-hourly-test.csv')
train_df.index = train_df['V1']
train_df = train_df.drop('V1', axis = 1)
test_df.index = test_df['V1']
test_df = test_df.drop('V1', axis = 1)

smapes = []
naive_smape = []
j = tqdm(range(len(train_df)))
for row in j:
  y = train_df.iloc[row, :].dropna()
  y_test = test_df.iloc[row, :].dropna()
  j.set_description(f'{np.mean(smapes)}, {np.mean(naive_smape)}')
  lp_model = LazyProphet(seasonal_period=[24,168],
                          n_basis=10,
                          fourier_order=10,
                          ar=list(range(1, 25)),
                          decay=.99)
  fitted = lp_model.fit(y)
  predictions = lp_model.predict(len(y_test)).reshape(-1)
  smapes.append(smape(y_test.values, pd.Series(predictions).clip(lower=0)))
  naive_smape.append(smape(y_test.values, np.tile(y.iloc[-1], len(y_test))))  
print(np.mean(smapes))
print(np.mean(naive_smape))

所以真正需要修改是seasonal_period 和ar 參數。將list傳遞給seasonal_period 時,它將為列表中的所有內容構建季節性基函數。ar 進行瞭調整以適應新的主要季節 24。

結果

對於上面的 Sktime 結果,表格如下:

LazyProphet 擊敗瞭 Sktime 最好的模型,其中包括幾種不同的基於樹的方法。在每小時數據集上輸給給瞭 M4 的獲勝者,但平均而言總體上優於 ES-RNN。這裡要意識到的重要一點是,隻使用默認參數進行瞭此操作……

boosting_params = {
                  "objective": "regression",
                  "metric": "rmse",
                  "verbosity": -1,
                  "boosting_type": "gbdt",
                  "seed": 42,
                  'linear_tree': False,
                  'learning_rate': .15,
                  'min_child_samples': 5,
                  'num_leaves': 31,
                  'num_iterations': 50
                  }

可以在創建 LazyProphet 類時傳遞你參數的字典,可以針對每個時間序列進行優化,以獲得更多收益。

對比一下我們的結果和上面提到的目標:

進行瞭零參數優化(針對不同的季節性稍作修改)

分別擬合每個時間序列

在我的本地機器上在一分鐘內“懶惰地”生成瞭預測。

在基準測試中擊敗瞭所有其他樹方法

目前看是非常成功的,但是成功可能無法完全的復制,因為他數據集的數據量要少得多,因此我們的方法往往會顯著降低性能。根據測試LazyProphet 在高頻率和大量數據量上表現的更好,但是LazyProphet還是一個時間序列建模的很好選擇,我們不需要花多長時間進行編碼就能夠測試,這點時間還是很值得。

到此這篇關於Python基於LightGBM進行時間序列預測的文章就介紹到這瞭,更多相關Python LightGBM時間序列預測內容請搜索WalkonNet以前的文章或繼續瀏覽下面的相關文章希望大傢以後多多支持WalkonNet!

推薦閱讀: