熱線電話:13121318867

登錄
首頁精彩閱讀人工智能中神經網絡發展緩慢的原因
人工智能中神經網絡發展緩慢的原因
2019-03-07
收藏



人工智能是現在十分火熱的技術,這是因為人工智能夠給我們帶來很多的便捷,比如說蘋果的Siri、三星的bixby、小米的小愛同學等,這些都給我們的生活中增加了不少的樂趣。而人工智能的核心技術就是機器學習以及深度學習,當然,還涉及到了神經網絡的技術。其實這三個技術中,神經網絡的技術發展是十分緩慢的,那么到底是為什么呢?下面我們就給大家詳細解答一下這個問題。


在上個世紀80年代,通用計算機的出現使得人工神經網絡的研究經歷了一波復蘇。同時,一種算法逐漸成熟,而這個算法就是反向傳播。就目前而言,反向傳播算法都是訓練神經網絡的最主要方法。但是,神經網絡的規模依然受限于當時的硬件條件而導致規模依然不大。同時,以支持向量機為代表的基于核方法的機器學習技術,表現出了不俗的能力,正是由于這個原因,大量科研人員再一次放棄了神經網絡。


在發展神經網絡的路上,有兩個攔路虎,第一就是計算機的性能,第二就是訓練數據不夠多。正是由于這個原因,使得神經網絡在最初的幾十年內都沒有表現出過人的性能,實際上,其實在很多的實驗室中有這在試驗和后來深度神經網絡類似的結構,其中一個經典的神經網絡結構就是現在的LeNet。但是,增加神經網絡的深度,就會讓神經網絡的訓練速度變慢。在那個內存不過幾十MB,GPU還沒有出現的年代,要訓練一個小規模的深度神經網絡模型,需要花上數周甚至數月。而訓練數據不夠多也使得神經網絡發展受到了阻礙,而隨著特征維度的增加,算法的搜索空間急劇變大,要在這樣的特征空間中尋找適合的模型,需要大量的訓練數據。神經網絡要解決的問題,通常具有成千上萬維的特征,維度越高,特征也就越多,可以想象,要在如此大的特征中尋找一個模型,需要多少數據,而這個特征空間規模不過是深度學習問題中比較小的。


當然,我們可以通過一個非常有用的先驗假設進行簡化,這是因為我們這個世界的事物都是通過更小的事物組合而成的。不僅實際的物體滿足這一先驗假設,抽象的概念也一樣如此。因此深度神經網絡利用了這一假設,通過將網絡層數加深,每一層神經元都是前面一層神經元輸出的組合,通過這樣的假設,將整個搜索空間大大減小。然而,訓練深度神經網絡依然需要大量的數據,才能得到一個比較好的結果。所以說,數據的存量是神經網絡發展的前提。


在這篇文章中我們給大家介紹了很多關于人工智能中的神經網絡發展緩慢的原因,通過這篇文章我們不難發現,科技從0到1的發展是非常艱難的。不過只要突破了這一個障礙,人工智能就能夠得到巨大的發展。


數據分析咨詢請掃描二維碼

若不方便掃碼,搜微信號:CDAshujufenxi

數據分析師資訊
更多

OK
客服在線
立即咨詢
日韩人妻系列无码专区视频,先锋高清无码,无码免费视欧非,国精产品一区一区三区无码
客服在線
立即咨詢