在R語言中實現Logistic邏輯回歸的操作

邏輯回歸是擬合回歸曲線的方法,當y是分類變量時,y = f(x)。典型的使用這種模式被預測Ÿ給定一組預測的X。預測因子可以是連續的,分類的或兩者的混合。

R中的邏輯回歸實現

R可以很容易地擬合邏輯回歸模型。要調用的函數是glm(),擬合過程與線性回歸中使用的過程沒有太大差別。在這篇文章中,我將擬合一個二元邏輯回歸模型並解釋每一步。

數據集

我們將研究泰坦尼克號數據集。這個數據集有不同版本可以在線免費獲得,但我建議使用Kaggle提供的數據集。

目標是預測生存(如果乘客幸存,則為1,否則為0)基於某些諸如服務等級,性別,年齡等特征。

我們將使用分類變量和連續變量。

數據清理過程

在處理真實數據集時,我們需要考慮到一些數據可能丟失的情況,因此我們需要為我們的分析準備數據集。

作為第一步,我們使用該函數加載csv數據read.csv()。

使每個缺失值編碼為NA。

training.data.raw < - read.csv('train.csv',header = T,na.strings = c(“”))

現在我們需要檢查缺失的值,查看每個變量的唯一值,使用sapply()函數將函數作為參數傳遞給數據框的每一列。

 
PassengerId    Survived      Pclass        Name         Sex 
          0           0           0           0           0 
        Age       SibSp       Parch      Ticket        Fare 
        177           0           0           0           0 
      Cabin    Embarked 
        687           2 
 
length(unique(x)))
 
PassengerId    Survived      Pclass        Name         Sex 
        891           2           3         891           2 
        Age       SibSp       Parch      Ticket        Fare 
         89           7           7         681         248 
      Cabin    Embarked 
        148           4

對缺失值進行可視化處理可能會有所幫助:可以繪制數據集並顯示缺失值:

機艙有太多的缺失值,我們不使用它。

使用subset()函數我們對原始數據集進行子集化,隻選擇相關列。

data < - subset(training.data.raw,select = c(2,3,5,6,7,8,10,12))

現在我們需要解釋其他缺失的值。通過在擬合函數內設置參數來擬合廣義線性模型時,R可以很容易地處理它們。

有不同的方法可以做到這一點,一種典型的方法是用現有的平均值,中位數或模式代替缺失值。我將使用平均值。

data$ Age [is.na(data $ Age)] < - mean(data$ Age,na.rm = T)
 

就分類變量而言,使用read.table()或read.csv()默認會將分類變量編碼為因子。

為瞭更好地理解R如何處理分類變量,我們可以使用contrasts()函數。

在進行擬合過程之前,先清潔和格式化數據。這個預處理步驟對於獲得模型的良好擬合和更好的預測能力通常是至關重要的。

模型擬合

我們將數據分成兩部分:訓練和測試集。訓練集將用於擬合我們的模型。

model <- glm(Survived ~.,family=binomial(link='logit'),data=train)

通過使用函數,summary()我們獲得瞭我們模型的結果:

 
Deviance Residuals: 
    Min       1Q   Median       3Q      Max  
-2.6064  -0.5954  -0.4254   0.6220   2.4165  
Coefficients:
             Estimate Std. Error z value Pr(>|z|)    
(Intercept)  5.137627   0.594998   8.635  < 2e-16 ***
Pclass      -1.087156   0.151168  -7.192 6.40e-13 ***
Sexmale     -2.756819   0.212026 -13.002  < 2e-16 ***
Age         -0.037267   0.008195  -4.547 5.43e-06 ***
SibSp       -0.292920   0.114642  -2.555   0.0106 *  
Parch       -0.116576   0.128127  -0.910   0.3629    
Fare         0.001528   0.002353   0.649   0.5160    
EmbarkedQ   -0.002656   0.400882  -0.007   0.9947    
EmbarkedS   -0.318786   0.252960  -1.260   0.2076    
---
Signif. codes:  0 ‘***' 0.001 ‘**' 0.01 ‘*' 0.05 ‘.' 0.1 ‘ ' 1

解釋我們的邏輯回歸模型的結果

現在我們可以分析擬合並解釋模型告訴我們什麼。

首先,我們可以看到SibSp,Fare和Embarked沒有統計意義。至於統計上顯著的變量,性別具有最低的p值,這表明乘客的性別與存活的可能性有很強的關聯。

預測因子的負系數表明所有其他變量相同,男性乘客不太可能存活下來。

由於男性是虛擬變量,因此男性將對數概率降低2.75,而單位年齡增加則將對數概率降低0.037。

現在我們可以運行anova()模型上的函數來分析偏差表

Analysis of Deviance Table
Model: binomial, link: logit
Response: Survived
Terms added sequentially (first to last)
         Df Deviance Resid. Df Resid. Dev  Pr(>Chi)    
NULL                       799    1065.39              
Pclass    1   83.607       798     981.79 < 2.2e-16 ***
Sex       1  240.014       797     741.77 < 2.2e-16 ***
Age       1   17.495       796     724.28 2.881e-05 ***
SibSp     1   10.842       795     713.43  0.000992 ***
Parch     1    0.863       794     712.57  0.352873    
Fare      1    0.994       793     711.58  0.318717    
Embarked  2    2.187       791     709.39  0.334990    

零偏差和剩餘偏差之間的差異越大越好。通過分析表格,我們可以看到每次添加一個變量時出現偏差的情況。

同樣,增加Pclass,Sex and Age可以顯著減少殘餘偏差。

這裡的大p值表示沒有變量的模型或多或少地解釋瞭相同的變化量。最終你想看到的是一個顯著的下降和偏差AIC。

評估模型的預測能力

在上面的步驟,我們簡要評價模型的擬合。通過設置參數type=’response’,R將以P(y = 1 | X)的形式輸出概率。我們的決策邊界將是0.5。如果P(y = 1 | X)> 0.5,則y = 1,否則y = 0。請註意,對於某些應用場景,不同的閾值可能是更好的選擇。

 fitting.results < - ifelse(fitted.results> 0.5,1,0)
misClasificError < - mean(fitted.results!= test $ Survived

測試集上的0.84精度是相當不錯的結果。但是,如果您希望得到更精確的分數,最好運行交叉驗證,如k折交叉驗證驗證。

作為最後一步,我們將繪制ROC曲線並計算二元分類器典型性能測量的AUC(曲線下面積)。

ROC是通過在各種閾值設置下將真陽性率(TPR)與假陽性率(FPR)作圖而產生的曲線,而AUC是ROC曲線下的面積。作為一個經驗法則,具有良好預測能力的模型應該接近於1。

以上為個人經驗,希望能給大傢一個參考,也希望大傢多多支持WalkonNet。如有錯誤或未考慮完全的地方,望不吝賜教。