R語言如何進行線性回歸的擬合度詳解
R語言進行線性回歸的擬合度。
本文隻是使用 R做回歸計算,查看擬合度等,不討論 R 函數的內部公式
在R中線性回歸分析的函數是lm(),基本語法是
一元回歸: lm(y ~ x,data)
多元回歸:lm(y ~ x1+x2+x3…,data)
創建關系模型並獲取系數
x <- c(151, 174, 138, 186, 128, 136, 179, 163, 152, 131) y <- c(63, 81, 56, 91, 47, 57, 76, 72, 62, 48) # 使用lm()函數進行計算. relation <- lm(y~x) print(relation)
執行上面的代碼,它產生以下結果
Call: lm(formula = y ~ x) Coefficients: (Intercept) x -38.4551 0.6746
產生瞭一條線性方程式:
y = -38.4551 + 0.6746x
使用summary()函數,查看摘要
print(summary(relation))
結果如下:
Call:
lm(formula = y ~ x)Residuals:
Min 1Q Median 3Q Max
-6.3002 -1.6629 0.0412 1.8944 3.9775Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) -38.45509 8.04901 -4.778 0.00139 **
x 0.67461 0.05191 12.997 1.16e-06 ***
—
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ‘ 1Residual standard error: 3.253 on 8 degrees of freedom
Multiple R-squared: 0.9548, Adjusted R-squared: 0.9491
F-statistic: 168.9 on 1 and 8 DF, p-value: 1.164e-06
Multiple R-squared和Adjusted R-squared這兩個值,其實我們常稱之為“擬合優度”和“修正的擬合優度”,是指回歸方程對樣本的擬合程度。
R-squared(值范圍0-1)描述的 輸入變量對輸出變量的解釋程度。在單變量線性回歸中R-squared 越大,說明擬合程度越好,模型對數據的預測越準確。
Adjusted R-square:自由度調整 r 平方。接近1的值表示更好的匹配。當您向模型中添加附加系數時, 它通常是適合質量的最佳指示器。
關於R-squared 和 Adjusted R-squared聯系與區別:,可以看看下文
https://www.jb51.net/article/207365.htm
簡單來說,隻要增加瞭更多的變量,無論增加的變量是否和輸出變量存在關系,則R-squared 要麼保持不變,要麼增加。
所以, 需要adjusted R-squared ,它會對那些增加的且不會改善模型效果的變量增加一個懲罰向。
結論,如果單變量線性回歸,則使用 R-squared評估,多變量,則使用adjusted R-squared。
在單變量線性回歸中,R-squared和adjusted R-squared是一致的。
另外,如果增加更多無意義的變量,則R-squared 和adjusted R-squared之間的差距會越來越大,Adjusted R-squared會下降。但是如果加入的特征值是顯著的,則adjusted R-squared也會上升。
使用predict()函數進行數據預測
語法:
predict(object, newdata)
object是已使用lm()函數創建的公式。
newdata是包含預測變量的新值的向量。
使用上面得到的方程式來預測
a <- data.frame(x = 170) result <- predict(relation,a) print(result)
得到預測結果
1
76.22869
總結
到此這篇關於R語言如何進行線性回歸擬合度的文章就介紹到這瞭,更多相關R語言線性回歸擬合度內容請搜索WalkonNet以前的文章或繼續瀏覽下面的相關文章希望大傢以後多多支持WalkonNet!
推薦閱讀:
- R語言實現線性回歸的示例
- R語言線性回歸知識點總結
- 詳解R語言MCMC:Metropolis-Hastings采樣用於回歸的貝葉斯估計
- R語言中邏輯回歸知識點總結
- 人工智能-Python實現多項式回歸