熱線電話:13121318867

登錄
首頁精彩閱讀深度學習可解釋性差到底是什么意思?
深度學習可解釋性差到底是什么意思?
2019-03-06
收藏


很多人在學習深度學習的時候會遇到一個疑惑,那就是深度學習可解釋差這個說法是否準確。這個拗口的詞匯相信大家對其義也不甚了解。雖說這個詞匯不好理解,但是這個詞匯確實是一個十分重要的概念,我們要想學習深度學習知識就不能忽略這個詞匯。那么深度學習可解釋差到底是什么意思呢?下面我們就給大家介紹一下這個詞匯的意思。


首先我們給大家解讀一下“解釋”的含義,其實解釋的意思就是在觀察的基礎上進行思考,合理地說明事物變化的原因,事物之間的聯系,或者是事物發展的規律。而深度學習可解釋性差,意思就是我們很難去說明一條樣本數據灌進一個神經網絡出來這樣一個預測結果的原因,這造成的直接后果就是很多時候我們不清楚如何針對一個神經網絡做優化。


我們怎么去解釋這個詞匯的意思呢?其實我們可以從一個線性回歸模型考慮。就拿現在大家最關心的房價來說,房價的因素有很多,我們主要就是說兩種,第一就是面積,第二就是到市中心的距離。我們認為一個房子的房價受房屋大小和到始終細膩距離兩個因素影響,而且到市中心距離這個因素的印象力很大,比房屋面積大100倍。我們還可以針對每個權重和偏置做假設檢驗,來看看這三個因素有沒有哪些是無顯著影響的。對于這種只有兩個因素的線性模型,我們甚至還可以將模型的函數圖像畫出來,直觀地檢查模型與數據擬合程度如何。對于線性模型,我們很清楚每一個權重和偏置的含義是什么。所以我們可以有很多明確的優化方案。這就是線性回歸的相關思想知識。


當然神經網絡有很多的結構,也有很多的特點,第一個特點就是神經元多,參數眾多;第二個特點就是結構分層,且隱含層眾多;第三個特點就是神經網絡的參數對應的特征不是人工設計的,是神經網絡在學習過程中自己選擇的。我們根本不知道我們的神經網絡模型到底學習了寫什么,我們不知道每一個參數的含義是什么,所以我們無法解釋整個模型的運作機制,自然也無法得出明確而又針對性的優化方案。


其實深度學習的缺陷有很多,可解釋性差也是深度學習目前最大的缺陷之一。所以說,可解釋性差總是讓深度學習解釋事物不是那么完美。因此,我們還需要發現一些更好的方式去彌補這個缺陷,這是深度學習發展的方向之一。相信這篇文章給予大家更多的一些思考和啟發,同時也發現深度學習還有很長的路要走,不過路越長說明就業的機會也更多,大家好好加油吧。

數據分析咨詢請掃描二維碼

若不方便掃碼,搜微信號:CDAshujufenxi

數據分析師資訊
更多

OK
客服在線
立即咨詢
日韩人妻系列无码专区视频,先锋高清无码,无码免费视欧非,国精产品一区一区三区无码
客服在線
立即咨詢