大數(shù)據(jù)分析到底需要多少種工具_大數(shù)據(jù)分析總結
越來越多的應用涉及到大數(shù)據(jù),不幸的是所有大數(shù)據(jù)的屬性,包括數(shù)量、速度、多樣性等等都是描述了數(shù)據(jù)庫不斷增長的復雜性。那么大數(shù)據(jù)給我們帶來了什么好處呢?大數(shù)據(jù)最大的好處在于能夠讓我們從這些數(shù)據(jù)中分析出很多智能的、深入的、有價值的信息。
最近比較了179種不同的分類學習方法(分類學習算法)在121個數(shù)據(jù)集上的性能,發(fā)現(xiàn)Random Forest(隨機森林)和SVM(支持向量機)分類準確率最高,在大多數(shù)情況下超過其他方法。本文針對“大數(shù)據(jù)分析到底需要多少種工具?”
分類方法大比武大數(shù)據(jù)分析主要依靠機器學習和大規(guī)模計算。機器學習包括監(jiān)督學習、非監(jiān)督學習、強化學習等,而監(jiān)督學習又包括分類學習、回歸學習、排序學習、匹配學習等(見圖1)。分類是最常見的機器學習應用問題,比如垃圾郵件過濾、人臉檢測、用戶畫像、文本情感分析、網(wǎng)頁歸類等,本質上都是分類問題。分類學習也是機器學習領域,研究最徹底、使用最廣泛的一個分支。
圖1機器學習分類體系
最近、Fernández-Delgado等人在JMLR(Journal of Machine Learning Research,機器學習頂級期刊)雜志發(fā)表了一篇有趣的論文。他們讓179種不同的分類學習方法(分類學習算法)在UCI 121個數(shù)據(jù)集上進行了“大比武”(UCI是機器學習公用數(shù)據(jù)集,每個數(shù)據(jù)集的規(guī)模都不大)。結果發(fā)現(xiàn)Random Forest(隨機森林)和SVM(支持向量機)名列第一、第二名,但兩者差異不大。在84.3%的數(shù)據(jù)上、Random Forest壓倒了其它90%的方法。也就是說,在大多數(shù)情況下,只用Random Forest 或 SVM事情就搞定了。
幾點經(jīng)驗總結大數(shù)據(jù)分析到底需要多少種機器學習的方法呢?圍繞著這個問題,我們看一下機器學習領域多年得出的一些經(jīng)驗規(guī)律。
大數(shù)據(jù)分析性能的好壞,也就是說機器學習預測的準確率,與使用的學習算法、問題的性質、數(shù)據(jù)集的特性包括數(shù)據(jù)規(guī)模、數(shù)據(jù)特征等都有關系。
一般地,Ensemble方法包括Random Forest和AdaBoost、SVM、LogisTIc Regression 分類準確率最高。
沒有一種方法可以“包打天下”。Random Forest、SVM等方法一般性能最好,但不是在什么條件下性能都最好。
不同的方法,當數(shù)據(jù)規(guī)模小的時候,性能往往有較大差異,但當數(shù)據(jù)規(guī)模增大時,性能都會逐漸提升且差異逐漸減小。也就是說,在大數(shù)據(jù)條件下,什么方法都能work的不錯。參見圖2中Blaco & Brill的實驗結果。
對于簡單問題,Random Forest、SVM等方法基本可行,但是對于復雜問題,比如語音識別、圖像識別,最近流行的深度學習方法往往效果更好。深度學習本質是復雜模型學習,是今后研究的重點。
在實際應用中,要提高分類的準確率,選擇特征比選擇算法更重要。好的特征會帶來更好的分類結果,而好的特征的提取需要對問題的深入理解。