熱線電話:13121318867

登錄
首頁大數據時代這幾種常用的模型優化方法,你需要掌握
這幾種常用的模型優化方法,你需要掌握
2020-07-13
收藏

在數據分析過程中,我們會用到各種各樣的數據模型。但有些模型并不是完美的,存在者各種各樣的缺點,置之不理很可能會影響最終的數據分析結果。這也就意味著,我們需要讓模型最優化。通過模型優化,訓練出更好的模型,更好的進行數據分析。下面,小編簡單整理了幾種常用的模型優化方法,希望對大家有所幫助。

1. 梯度下降法(Gradient Descent)

梯度下降法——最早的、最容易,同時也是最長用到的模型優化方法。

梯度下降法實現很容易,在目標函數為凸函數的情況下,梯度下降法的解就是全局解。通常來說,其解是全局最優解這一點并不能保證,而且梯度下降法,它的速度也并不是最快的。梯度下降法的優化思想為:把當前位置負梯度的方向當做搜索方向,這是該這一方向是當前位置的最快下降方向,所以又有”最速下降法“的叫法。梯度下降法越是接近目標值,其步長就會越小,前進也會越慢。

2. 牛頓法和擬牛頓法

a.牛頓法(Newton's method)

牛頓法其實是一種在實數域和復數域上,近似求解方程的方法。此方法使用f (x)函數的泰勒級數里的前面幾項來找尋方程f (x) = 0的根。收斂速度快是此方法最大的特點。

因為牛頓法是確定下一次的位置依靠的是當前位置的切線,所以又有"切線法"這一很形象的名稱。

b.擬牛頓法(Quasi-Newton Methods)

擬牛頓法可以說是非線性優化問題求解最常用的、最有效的方法了。擬牛頓法是20世紀50年代,由美國Argonne國家實驗室的物理學家W.C.Davidon提出的·,這一算法在當時的時代,無疑是非線性優化領域最具有創造性的發明之一了。

擬牛頓法的本質思想為:對牛頓法每次需要求解復雜的Hessian矩陣的逆矩陣這一缺陷進行改善。擬牛頓法使用正定矩陣來近似Hessian矩陣的逆,這樣在很大程度上減小了運算的復雜度。擬牛頓法與梯度下降法相同,只對每一步迭代時知道目標函數的梯度有要求。通過測量梯度的變化,構造出一個目標函數的模型,并使之足以產生超線性收斂性。而且相比牛頓法,擬牛頓法并不需要二階導數的信息,所以有時反而比牛頓法更有效。

3. 共軛梯度法(Conjugate Gradient)

共軛梯度法是介于梯度下降法與牛頓法之間的一個模型優化方法,只需要利用一階導數信息,但卻改善了梯度下降法收斂速度慢這一缺陷,同時又克服了,牛頓法需要存儲和計算Hesse矩陣,并求逆的缺點。共軛梯度法既能解決大型線性方程組問題,又是解大型非線性最優化最有用的算法之一。因為共軛梯度法具有所需存儲量小,步收斂性,高穩定性,不需要任何外來參數的優點,在各種模型優化方法中,是極為重要的一種。

4. 啟發式優化方法

啟發式優化方法指的是:人在解決問題時,所采取的一種根據經驗規則進行發現的方法。這一方法特點是,當解決問題時,可以利用過去的經驗,選擇行之有效的方法,而并不是以系統的、確定的步驟去找尋答案。啟發式優化方法有很多種類,其中最為經典的有:模擬退火方法、遺傳算法、蟻群算法以及粒子群算法等等。

數據分析咨詢請掃描二維碼

若不方便掃碼,搜微信號:CDAshujufenxi

數據分析師資訊
更多

OK
客服在線
立即咨詢
日韩人妻系列无码专区视频,先锋高清无码,无码免费视欧非,国精产品一区一区三区无码
客服在線
立即咨詢