熱線電話:13121318867

登錄
首頁精彩閱讀【連載7】如何用spss做probit回歸和非線性回歸
【連載7】如何用spss做probit回歸和非線性回歸
2014-12-02
收藏

Probit回歸:

Probit回歸全稱probability unit,翻譯過來叫做概率單位法,蠻拗口的一個名字。這個回歸主要用于研究半數效量用的。直白一點說,就是比方你拿一種藥去藥蟑螂,你想知道你用多少藥能藥死多少蟑螂,那你就可以用probit回歸來估計這個數。Probit回歸經常拿來和logistic回歸作比較,通常對于二分類變量來說,這兩個回歸計算出來的概率是非常相似的。(雖然logistic回歸最后判斷的是是或否,但是它也需要計算一個概率來判斷這個結果倒是是還是否。)而且如果有一點數學基礎的話,會知道,這兩個回歸畫出來的圖也非常像,只是logistic回歸畫出來的Z型稍微平緩一些。

那么這兩個回歸到底有什么區別呢?通常來說區別不大。最重要的一個區別在于probit回歸適用于呈正態分布的數據,logistic回歸適用于呈logistic分布的數據。不過這個區別也蠻微妙的,因為正態分布和logistic分布還蠻像的。所以大概來講,到底是選擇哪個分布更多的還是一種個人喜好。

但是大家都知道啊,logistic分布比probit分布可有名多了。如果說十個從事大數據的人里邊有五個人知道logistic回歸,那么有三個知道probit回歸就不錯了。在我們ppv課網站的spss視頻教學里邊,絕大部分都會講到logistic回歸,但是probit回歸就不見得有人講了。(順便說一句,我個人最喜歡spss從入門到精通這套課程,剛入門的時候就是聽得這套課。強烈推薦大家去聽一聽)。

那么這是什么原因呢?這絕不是probit不好用的原因。主要原因有兩個,第一,logistic回歸形式比較多。二分類,有序多分類,無序多分類,這些logistic回歸都可以做。這就好像我們ppv課網站提供了spss,sas,r,matlab,hadoop等等視頻,你可以從零基礎學到精通級別,肯定比較受歡迎哈。第二,則歸功于logistic回歸的易解釋性。Logistic回歸提供了一個很重要的參數,OR值,這個值很直接的告訴你處于某個狀態比處于另一個狀態時因變量發生的概率增加了多少倍。這當然是一個很重要很直觀的參數啦。就好像你每學一段時間以后,我們ppv課網站告訴你你的知識積累比之前增加了多少倍多少倍,這個肯定很重要撒。

因此呢,logistic回歸就比probit回歸應用的廣泛了。不過這并不是說logistic回歸就比probit回歸好。實際上,兩種回歸擬合的方程幾乎一樣好。不過,再怎么幾乎一樣,那也肯定是有所不同的??上н@種不同用你的肉眼一般是看不出來的,至于怎么看,下邊在講。

好了,現在大概就介紹完probit回歸的背景知識了(絕對沒有湊字數)?,F在我們開始操作。

首先假設一個情景,假設我們ppv課網站打算增加一定的課程,達到收視率增加百分之二十的目的,我們就有了三個變量,課程增加的數目(假設分為3,6,9三個水平),各個增加水平的課程數(比方加3節課,6節課,9節課的都是十個課程),各個水平的課程的收視率增加達到百分之二十的課程數(假設分別是3,5,6)。(這段真的有點繞,最好讀兩遍保證能看懂哪個變量是表示的什么意思)。

那么我們就有了一個3*3的數據集,選擇菜單分析——回歸——probit,打開主面板,響應頻率里選我們各個水平收視率增加達到百分之二十的課程數(也就是我們做實驗的課程里邊有多少課程成功達到了收視率增加的目標),觀測值匯總里邊選擇各個增加水平的總課程數,再下邊有一個因子,一個協變量。我們的自變量課程增加的水平是三節課一個臺階,所以我們要選到協變量里邊去哈。(如果你的自變量是連續型變量,那你就得在因子下邊的那個定義范圍里邊選好范圍。)此外協變量下邊有一個轉換下拉菜單,這個菜單有三種方法,除了“無”以外,還有兩種對數轉換,你可以試試,你的數據到底怎么轉換效果最好。完了以后,在左下邊還有一個模型:概率/logit,這個單選框里默認的是概率。也就是默認數據分布是正態的。這個也不用管它。

然后點開選項,勾選頻率,信仰置信區間,繼續,確定。

然后就可以看結果了。參數值和卡方檢驗這兩個表會告訴你這個模型有沒有意義,適不適合用probit回歸(如果想和logistic回歸作比較,就可以用這里的擬合度檢驗檢測)。此外置信限度這個很大的表會告訴你假如你想要你的課程收視率增加的概率是百分之八十的時候,你的課程要增加多少節課這么個數據。它大概是以百分之五為精度的。那如果我想知道增加百分之八十三,需要加多少節課的話,那么我們就要用參數估計值里的參數進行計算了。

線性回歸

自然界中既然有線性回歸,那么理所當然的,也會有非線性回歸。不過,人類對于非線性回歸的研究遠遠不如對線性回歸的研究來的深刻,廣泛。不信你看一看你的spss教科書,線性回歸的內容可以洋洋灑灑寫一章,非線性回歸確占一小節,還往往是比較薄的一節。

線性回歸指的是y=a+a1*x1+a2*x2…這種形式的方程,非線性回歸包含的方程類型就多得多了。常見的有,冪函數,指數函數,雙曲函數,對數函數等等。我們先舉個例子。假設想擬合ppv課授課老師的數目和網站受歡迎程度的關系。選擇分析——回歸——非線性。打開主對話框。因變量選擇網站受歡迎程度,模型表達式需要自己編輯。(我就挺怵這個的),首先我們知道,我們肯定不可能看一眼就看出我們的數據是什么樣子的模型,我們可以通過圖形——圖表構建程序里邊,畫出散點圖,通過散點圖大致判斷我們的模型符合什么樣的方程,然后在進一步使用(或者直接使用)參數估計法(前面講過的),估計出它的表達式。

估計出表達式以后,就可以編輯模型表達式了。編輯好以后看左下角的參數那一欄。你的模型里邊的參數是需要首先定義一個初始值的。這個初始值要盡量靠近真實值,如果離真實值太遠的話,也會影響到模型的準確度??吹竭@里,可能你要發脾氣了,這是個什么模型?怎么這么麻煩???!要是我知道模型,知道初始值,那我還需要做分析嗎?????!唉,我也沒辦法,非線性回歸就是這么個玩意,總之你還是拿起你的筆,根據你的模型代幾組數據算一算大概的初始值吧。畢竟為了最后的精度嘛。

輸好初始值以后,打開保存對話框,勾選預測值,殘差。繼續,其他的默認就可以。點確定。

輸出的參數估計值會給出參數,套到你的模型里就可以。注意看方差分析表下邊的標注,里邊會給出決定系數R^2,這個R^2通常比參數估計法里的大,也就是說,非線性回歸的精度往往比參數估計法的大,模型擬合的好。(廢話,要是非線性回歸一點優勢也沒有,還有誰肯研究啊。)

上邊只是簡單介紹了一點非線性回歸的方法。實際生活中,非線性回歸線性回歸遠遠復雜的多,不是一句兩句就能說清楚的,此外,還有一種很普遍的辦法是通過數學公式把非線性方程轉化成線性方程。這樣就能大大降低方程的復雜性。在這里,給大家總結了幾個常見的公式。

圖片1

通過這樣的一些公式,非線性回歸就變得簡單一些了。但是并不是所有的非線性回歸都能轉化成線性回歸,或者說,大多數都不能轉化成線性回歸。這個問題很復雜,絕不是一篇兩篇文章就能說得清楚的。在這里本文只為大家進行簡單介紹,更高深的內容請大家參考《非線性回歸分析及其應用》,《非線性回歸》等書籍。我就沒能力啦。

回歸分析的內容就暫時告一段落了。我們下一篇文章將學習主成分分析和因子分析等降維分析。敬請期待呦。

數據分析咨詢請掃描二維碼

若不方便掃碼,搜微信號:CDAshujufenxi

數據分析師資訊
更多

OK
客服在線
立即咨詢
日韩人妻系列无码专区视频,先锋高清无码,无码免费视欧非,国精产品一区一区三区无码
客服在線
立即咨詢