R語言如何進行線性回歸的擬合度詳解

R語言進行線性回歸的擬合度。

本文隻是使用 R做回歸計算,查看擬合度等,不討論 R 函數的內部公式

在R中線性回歸分析的函數是lm(),基本語法是

一元回歸: lm(y ~ x,data)

多元回歸:lm(y ~ x1+x2+x3…,data)

創建關系模型並獲取系數

x <- c(151, 174, 138, 186, 128, 136, 179, 163, 152, 131)
y <- c(63, 81, 56, 91, 47, 57, 76, 72, 62, 48)

# 使用lm()函數進行計算.
relation <- lm(y~x)

print(relation)

執行上面的代碼,它產生以下結果

Call:
lm(formula = y ~ x)

Coefficients:
(Intercept)  x 
 -38.4551  0.6746

產生瞭一條線性方程式:

y = -38.4551 + 0.6746x

使用summary()函數,查看摘要

print(summary(relation))

結果如下:

Call:
lm(formula = y ~ x)

Residuals:
    Min      1Q     Median      3Q     Max
-6.3002    -1.6629  0.0412    1.8944  3.9775

Coefficients:
             Estimate Std. Error t value Pr(>|t|)   
(Intercept) -38.45509    8.04901  -4.778  0.00139 **
x             0.67461    0.05191  12.997 1.16e-06 ***

Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ‘ 1

Residual standard error: 3.253 on 8 degrees of freedom
Multiple R-squared:  0.9548,    Adjusted R-squared:  0.9491
F-statistic: 168.9 on 1 and 8 DF,  p-value: 1.164e-06

Multiple R-squared和Adjusted R-squared這兩個值,其實我們常稱之為“擬合優度”和“修正的擬合優度”,是指回歸方程對樣本的擬合程度。

R-squared(值范圍0-1)描述的 輸入變量對輸出變量的解釋程度。在單變量線性回歸中R-squared 越大,說明擬合程度越好,模型對數據的預測越準確。

Adjusted R-square:自由度調整 r 平方。接近1的值表示更好的匹配。當您向模型中添加附加系數時, 它通常是適合質量的最佳指示器。

關於R-squared 和 Adjusted R-squared聯系與區別:,可以看看下文

https://www.jb51.net/article/207365.htm

簡單來說,隻要增加瞭更多的變量,無論增加的變量是否和輸出變量存在關系,則R-squared 要麼保持不變,要麼增加。

所以, 需要adjusted R-squared ,它會對那些增加的且不會改善模型效果的變量增加一個懲罰向。

結論,如果單變量線性回歸,則使用 R-squared評估,多變量,則使用adjusted R-squared。
在單變量線性回歸中,R-squared和adjusted R-squared是一致的。

另外,如果增加更多無意義的變量,則R-squared 和adjusted R-squared之間的差距會越來越大,Adjusted R-squared會下降。但是如果加入的特征值是顯著的,則adjusted R-squared也會上升。

使用predict()函數進行數據預測

語法:

predict(object, newdata)

object是已使用lm()函數創建的公式。

newdata是包含預測變量的新值的向量。

使用上面得到的方程式來預測

a <- data.frame(x = 170)
result <- predict(relation,a)
print(result)

得到預測結果

       1
76.22869

總結

到此這篇關於R語言如何進行線性回歸擬合度的文章就介紹到這瞭,更多相關R語言線性回歸擬合度內容請搜索WalkonNet以前的文章或繼續瀏覽下面的相關文章希望大傢以後多多支持WalkonNet!

推薦閱讀: