Python中尋找數據異常值的3種方法
1. 引言
在數據處理、機器學習等領域,我們經常需要對各式各樣的數據進行處理,本文重點介紹三種非常簡單的方法來檢測數據集中的異常值。
2. 舉個栗子
為瞭方便介紹,這裡給出我們的測試數據集,如下:
data = pd.DataFrame([ [87, 82, 85], [81, 89, 75], [86, 87, 69], [91, 79, 86], [88, 89, 82], [0, 0, 0], # this guy missed the exam [100, 100, 100], ], columns=["math", "science", "english"])
圖示如下:
假設這裡我們有一堆學生的三門科目的考試成績——英語、數學和科學。這些學生通常表現很好,但其中一人錯過瞭所有考試,三門科目都得瞭0分。在我們的分析中包括這個傢夥可能會把事情搞砸,所以我們需要將他視為異常。
3. 孤立森林
使用孤立森林算法來求解上述異常值分析非常簡單,代碼如下:
from sklearn.ensemble import IsolationForest predictions = IsolationForest().fit(data).predict(data) # predictions = array([ 1, 1, 1, 1, 1, -1, -1])
這裡預測值針對每一行進行預測,預測結果為1或者-1;其中1表示該行不是異常值,而-1表示該行是異常值。在上述例子中,我們的孤立森林算法將數據中的最後2行都預測為異常值。
4. 橢圓模型擬合
使用孤橢圓模型擬合算法來求解上述異常值同樣非常方便,代碼如下:
from sklearn.covariance import EllipticEnvelope predictions = EllipticEnvelope().fit(data).predict(data) # predictions = array([ 1, 1, 1, 1, 1, -1, 1])
在上述代碼中,我們使用瞭另外一種異常值檢測算法來代替孤立森林算法,但是代碼保持不變。相似地,在預測值中,1表示非異常值,-1表示異常值。在上述情況下,我們的橢圓模型擬合算法隻將倒數第二個學生作為異常值,即所有成績都為零的考生。
5. 局部異常因子算法
類似地,我們可以非常方便地使用局部異常因子算法來對上述數據進行分析,樣例代碼如下:
from sklearn.neighbors import LocalOutlierFactor predictions = LocalOutlierFactor(n_neighbors=5, novelty=True).fit(data).predict(data) # array([ 1, 1, 1, 1, 1, -1, 1])
局部異常因子算法是sklearn上可用的另一種異常檢測算法,我們可以簡單地在這裡隨插隨用。同樣地,這裡該算法僅將最後第二個數據行預測為異常值。
6. 挑選異常值檢測方法
那麼,我們如何決定哪種異常檢測算法更好呢? 簡而言之,沒有“最佳”的異常值檢測算法——我們可以將它們視為做相同事情的不同方式(並獲得略有不同的結果)
7. 異常值消除
在我們從上述三種異常檢測算法中的任何一種獲得異常預測後,我們現在可以執行異常值的刪除。 這裡我們隻需保留異常預測為1的所有數據行,
代碼如下:
# predictions = array([ 1, 1, 1, 1, 1, -1, 1]) data2 = data[predictions==1]
結果如下:
8. 總結
本文重點介紹瞭在Python中使用sklearn機器學習庫來進行異常值檢測的三種方法,並給出瞭相應的代碼示例。
到此這篇關於Python中尋找數據異常值的3種方法的文章就介紹到這瞭,更多相關Python尋找數據異常值內容請搜索WalkonNet以前的文章或繼續瀏覽下面的相關文章希望大傢以後多多支持WalkonNet!
推薦閱讀:
- 19個Python Sklearn中超實用的隱藏功能分享
- python機器學習Sklearn實戰adaboost算法示例詳解
- 回歸預測分析python數據化運營線性回歸總結
- python機器學習樸素貝葉斯算法及模型的選擇和調優詳解
- 使用Python處理KNN分類算法的實現代碼