熱線電話:13121318867

登錄
首頁精彩閱讀機器學習中的回歸算法(上)
機器學習中的回歸算法(上)
2019-04-28
收藏

機器學習中有很多的算法,我們在之前給大家介紹了支持向量機算法,支持向量機算法是一個十分經典的算法,因此也備受大家喜歡。下面我們在這篇文章中給大家介紹一下回歸算法,希望這篇文章能夠幫助我們更好地理解機器學習的知識。

機器學習中有很多的方法,在大部分機器學習課程中,回歸算法都是介紹的第一個算法。其中的原因有兩個,第一就是回歸算法比較簡單,介紹它可以讓人平滑地從統計學遷移到機器學習中。第二就是回歸算法是后面若干強大算法的基石,如果不理解回歸算法,無法學習那些強大的算法?;貧w算法有兩個重要的子類:即線性回歸邏輯回歸。線性回歸就是我們常見的直線函數。如何擬合出一條直線最佳匹配我所有的數據?對于這個問題的解決方法我們一般使用“最小二乘法”來求解?!?a href='/map/zuixiaoercheng/' style='color:#000;font-size:inherit;'>最小二乘法”的思想是這樣的,假設我們擬合出的直線代表數據的真實值,而觀測到的數據代表擁有誤差的值。為了盡可能減小誤差的影響,需要求解一條直線使所有誤差的平方和最小。最小二乘法將最優問題轉化為求函數極值問題。函數極值在數學上我們一般會采用求導數為0的方法。但這種做法并不適合計算機,可能求解不出來,也可能計算量太大。這種做法的局限性很大,所以我們還是需要考慮從別的方向入手。

可能大家不知道的是,計算機科學界專門有一個學科叫“數值計算”,專門用來提升計算機進行各類計算時的準確性和效率問題。我們就舉一個例子,比如著名的“梯度下降”以及“牛頓法”就是數值計算中的經典算法,也非常適合來處理求解函數極值的問題。梯度下降法是解決回歸模型中最簡單且有效的方法之一。從嚴格意義上來說,由于機器學習中的神經網絡算法和推薦算法中都有線性回歸的因子,因此梯度下降法在后面的算法實現中也有應用。

我們在這篇文章中給大家介紹了機器學習中回歸算法知識的一部分,由于篇幅原因我們就給大家介紹到這里了,在后面的文章中我們會繼續為大家介紹回歸算法的其他部分知識。

數據分析咨詢請掃描二維碼

若不方便掃碼,搜微信號:CDAshujufenxi

數據分析師資訊
更多

OK
客服在線
立即咨詢
日韩人妻系列无码专区视频,先锋高清无码,无码免费视欧非,国精产品一区一区三区无码
客服在線
立即咨詢