熱線電話:13121318867

登錄
首頁精彩閱讀機器學習—局部加權線性回歸
機器學習—局部加權線性回歸
2018-06-01
收藏


機器學習—局部加權線性回歸

機器學習—局部加權線性回歸

介紹之前先提稍微一下線性回歸,用最小二乘法等方法,擬合出最適合訓練集的一條直線。

我們得到了最小二乘損失函數為   , 通過求得損失函數的極小值來求得參數。


局部加權線性回歸的進行前提必須要有預測值x才可以進行,它的原理是損失函數變為 


的表達式如下:

這里的x就是預測值,所以必須要有預測值才可以求出損失函數,通過求損失函數的極小值來得到參數。與X的分布于正態分布類似,但和正態分布沒有一毛錢關系。

圖就不畫了,說一下  當預測值和訓練集很接近時,權值為1;當相隔很遠時,權值為0

Γ的值提前也要設置好,這個代表著W(i)上升和下降的速率。

最后通過求得J(Θ)的極小值就可以得到Θ向量。

缺點很明顯了,你想要預測一個值就要求一組Θ向量,當你要預測很多值(數據集很大)時,或者甚至你要預測幾乎所有連續的X想得到一條擬合曲線時(微積分一段段線性回歸的組合),這TM成本太高,計算太慢了,所以在看清數據集大小的情況下慎重選擇算法模型。

PS.通俗一點講就是利用接近預測值x的訓練集點來擬合一條直線,某種意義講你可以把它想象原來龐大的訓練集分割成只有接近x的數據集來進行線性回歸,但是這個和真正的局部加權線性回歸不一樣!記住了。


以下紅色為局部線性回歸模型,藍色就是線線性回歸,可以看到預測值在紅色時比較精確。

當然可以想想看,如果擬合一條二次的曲線(即非線性),在圖中的黃色曲線預測效果也是不錯的。當然你可以選擇1次,2次.....這樣的模型去試,看看效果。如果你不想這么做,就可以選擇局部線性回歸。


額,有時間在上一python代碼吧。

數據分析咨詢請掃描二維碼

若不方便掃碼,搜微信號:CDAshujufenxi

數據分析師資訊
更多

OK
客服在線
立即咨詢
日韩人妻系列无码专区视频,先锋高清无码,无码免费视欧非,国精产品一区一区三区无码
客服在線
立即咨詢