哪三項技術帶動了人工智能的發(fā)展
人工智能技術發(fā)展到現(xiàn)在已經超過60年,它在歷史上經歷過三起三落的浪潮。第一個興起階段以1956年的達特茅斯學院會議為標志,首次提出了人工智能的概念;第二個興起階段以日本提出支持開發(fā)第五代計算機項目為標志,當時日本還研發(fā)出了許多機器人,到現(xiàn)在,日本的機器人技術在全球都處于領先地位;第三個快速發(fā)展階段則以加拿大多倫多大學的教授欣頓(Geoffrey Hinton)于2006年提出深度學習神經網(wǎng)絡為標志,當前正處于這個快速發(fā)展的階段。
得益于數(shù)據(jù)、算法、算力這三駕馬車,人工智能在2006年以后獲得了巨大的發(fā)展。有一個有趣的說法,如果用火箭來比喻人工智能,那么數(shù)據(jù)是火箭的燃料,算法是火箭的引擎,算力即芯片是火箭的加速器。我們從這個比喻中可以看到數(shù)據(jù)、算法、算力對這次人工智能浪潮的重要影響,下面我們分別簡單分析一下這3個技術。
▲人工智能與數(shù)據(jù)、算法、算力的關系
第一駕馬車:大數(shù)據(jù)成為人工智能持續(xù)發(fā)展的基石隨著互聯(lián)網(wǎng)的飛速發(fā)展,這個世界上的數(shù)據(jù)變得異常豐富,數(shù)據(jù)量呈爆炸式地增長。據(jù)估算,從1986年到2007年這20年間,地球上每天可以通過既有信息通道交換的信息數(shù)量增長了約217倍,這些信息的數(shù)字化程度,則從1986年的約20%增長到2007年的約99.9%。在數(shù)字化信息爆炸式增長的過程里,全球信息存儲能力大約每3年翻一番,每個參與信息交換的節(jié)點都可以在短時間內接收并存儲大量數(shù)據(jù)。從1986年到2007年這20年間,全球信息存儲能力增加了約120倍,所存儲信息的數(shù)字化程度也從1986年的約1%增長到2007年的約94%。1986年,即便用上我們所有的信息載體、存儲手段,我們也只能存儲全世界所交換信息的大約1%。而2007年,這個數(shù)字已經增長到大約16%。信息存儲能力的增加為我們利用大數(shù)據(jù)提供了近乎無限的想象空間。
從應用角度來說,今天的大數(shù)據(jù)越來越多地呈現(xiàn)出以下一種或幾種特性:
大數(shù)據(jù)取代了傳統(tǒng)的抽樣調查。例如,以前電視臺某個節(jié)目的收視率往往要由專業(yè)的調查公司通過抽樣調查的方式估算出來?,F(xiàn)在,有了微博、視頻網(wǎng)站等,我們就可以直接利用網(wǎng)絡上每時每刻產生的大數(shù)據(jù)對節(jié)目熱度進行分析,其準確性往往超過傳統(tǒng)的抽樣調查方式。
許多大數(shù)據(jù)都可以實時獲取。例如,每年“雙11”期間的各類電子商務平臺上,每時每刻都有成千上萬筆交易進行著,所有這些交易數(shù)據(jù)都可以被實時匯總,供人們對“雙11”當天的交易情況進行監(jiān)控、管理、分析、匯總。大數(shù)據(jù)的實時性為大數(shù)據(jù)的應用提供了更多的選擇,為大數(shù)據(jù)更快產生應用價值提供了基礎。
大數(shù)據(jù)往往混合了來自多個數(shù)據(jù)源的多維度信息。假如利用用戶ID,將用戶在微博上的社交行為和用戶在電子商務平臺的購買行為關聯(lián)起來,就可以向微博用戶更準確地推薦他最喜歡的商品。聚合更多數(shù)據(jù)源,增加數(shù)據(jù)維度,這是提高大數(shù)據(jù)價值的好辦法。
多來源、實時、大量、多類型的數(shù)據(jù)可以從不同的角度進行更為逼近真實的描述,而利用深度學習算法可以挖掘數(shù)據(jù)之間的多層次關聯(lián)關系,為人工智能應用奠定了數(shù)據(jù)源基礎。
第二駕馬車:機器學習算法機器學習是對能通過數(shù)據(jù)或經驗自動改進的計算機算法的研究。對于機器學習的理解,我們可以從3個問題入手,即“學什么、怎么學、做什么”。首先,“學什么”即機器學習的內容,是能夠表征此項任務的函數(shù)。其次,“怎么學”即機器學習的方法。要實現(xiàn)學習目標,就要教給機器一套評判的方法。從數(shù)學角度來看,就是為機器定義一個合適的損失函數(shù),能夠合理量化真實結果和訓練結果的誤差,并將之反饋給機器繼續(xù)作迭代訓練。最后,“做什么”即機器學習的具體執(zhí)行,主要做3件事,即分類(Classification)、回歸(Regression)和聚類(Clustering),其中分類和回歸屬于監(jiān)督學習的范疇,而聚類則屬于非監(jiān)督學習的范疇。目前絕大多數(shù)人工智能落地應用的背后,都是將現(xiàn)實問題抽象成相應的數(shù)學模型,都可以分解為這些基本任務的有機組合。
機器學習的分類機器學習算法的廣義分類大概有3種:監(jiān)督學習、無監(jiān)督學習、強化學習。
監(jiān)督學習是指在訓練的時候就知道正確結果。比如教小孩子分類,先給他一個蘋果,然后告訴他這是蘋果。經過反復地訓練學習,再給他蘋果的時候,問他這是什么,他應該告訴你,這是蘋果。如果給他一個梨,他應該告訴你,這不是蘋果。訓練集的目標是由人標注(標量)的。在監(jiān)督學習下,輸入數(shù)據(jù)被稱為“訓練數(shù)據(jù)”,每組訓練數(shù)據(jù)有一個明確的標識或結果,如防垃圾郵件系統(tǒng)中的“垃圾郵件”“非垃圾郵件”,手寫數(shù)字識別中的“1”“2”“3”等。在建立預測模型時,監(jiān)督學習建立一個學習過程,將預測結果與“訓練數(shù)據(jù)”的實際結果進行比較,不斷調整預測模型,直到模型的預測結果達到一個預期的準確率。監(jiān)督學習分為兩類:回歸(Regression)和分類(ClassificaTIon),如果機器學習算法的輸出值是連續(xù)值,則屬于回歸問題;如果是離散值,則屬于分類問題。
和監(jiān)督學習不同,無監(jiān)督學習在訓練的時候并不知道正確結果。繼續(xù)上面的例子,給小孩子一堆水果,比如有蘋果、橘子、梨這3種,小孩子一開始不知道這些水果是什么,讓小孩子對這堆水果進行分類。等小孩子分類完后,給他一個蘋果,他應該將這個蘋果放到剛剛分好的蘋果堆中去。無監(jiān)督學習常用的方法是聚類(Clustering)。
強化學習是在機器學習算法程序運行的過程中,我們對它的行為做出評價,評價有正面和負面兩種,目的是讓它做出更有可能得到正面評價的行為。谷歌的AlphaGo圍棋程序,贏了圍棋界排名世界第一的柯潔,背后使用的就是強化學習技術。
深度學習算法引導機器智能水平的提升深度學習是機器學習的子領域,具體來說,深度學習是機器學習中具有深層結構的神經網(wǎng)絡算法。人工智能算法從專家系統(tǒng)到特征工程,最后到深度學習的這個過程中,人工參與在逐漸減少,而機器工作在逐漸增加,由于深度學習算法的優(yōu)異表現(xiàn)得到了主流認可,所以在多方應用中得到長足發(fā)展,下面我們簡單分析一下深度學習算法的優(yōu)勢。
深度學習算法優(yōu)勢淺析深度學習在機器學習算法中獨樹一幟并取得長足發(fā)展的原因主要有3點。
第一,深度學習算法降低了對算力的需求。傳統(tǒng)機器學習算法在語音識別、物體識別方面無法有效展開應用,其重要原因之一是無法使用語音及圖像的高維度數(shù)據(jù)(high-dimensional data)在高維空間學習復雜的函數(shù),這個問題被稱為維度詛咒(Curse of Dimensionality),高維度數(shù)據(jù)的參數(shù)設置需求隨著變量的增加呈指數(shù)增長,對計算能力提出了極大挑戰(zhàn),幾乎無法完成。而深度學習采用多層調參、層層收斂的方式,將參數(shù)數(shù)量始終控制在一個較為合理的水平,使得原本不可計算的模型變得可計算了,其理解可如下圖所示。
第二,深度神經網(wǎng)絡具有完備性。從理論上來說,深度神經網(wǎng)絡可以表征任何函數(shù),因此深度神經網(wǎng)絡可以通過不同的參數(shù)及網(wǎng)絡結構對任意函數(shù)進行擬合,排除了其無法學習復雜函數(shù)的可能性。
第三,深度學習的特征選取完備。深度學習具有自動學習特征的能力,這也是深度學習又叫無監(jiān)督特征學習(unsupervised feature learning)的原因。從深度學習模型中選擇某一神經層的特征后,就可以用來進行最終目標模型的訓練,而不需要人為參與特征選取。
第三駕馬車:算力是人工智能技術實現(xiàn)的保障人工智能領域是一個數(shù)據(jù)密集、計算密集的領域,傳統(tǒng)的數(shù)據(jù)處理技術難以滿足高強度、大數(shù)據(jù)的處理需求。人工智能芯片的出現(xiàn)讓大規(guī)模的數(shù)據(jù)效率大大提升,加速了深層神經網(wǎng)絡的訓練迭代速度,極大地促進了人工智能行業(yè)的發(fā)展。在人工智能市場高速發(fā)展的今天,人們都在尋找能讓深度學習算法更快速、更低能耗執(zhí)行的芯片。
人工智能芯片主要包括GPU(Graphics Processing Unit,圖形處理器)、FPGA(Field Programmable Gate Array,現(xiàn)場可編程邏輯門陣列)、ASIC( ApplicaTIon Specific Integrated Circuit,專用集成電路)以及類腦芯片。在人工智能時代,它們各自發(fā)揮優(yōu)勢,呈現(xiàn)出百花齊放的狀態(tài)。
GPU最初作為應對圖像處理需求而出現(xiàn)的芯片。其特點為擅長大規(guī)模并行運算,可以平行處理大量信息。在人工智能技術發(fā)展早期,因其具有優(yōu)異的大規(guī)模數(shù)據(jù)處理能力而被使用在多個項目之中。谷歌的圖像識別項目、 AlphaGo項目、特斯拉/沃爾沃等諸多汽車廠商的輔助駕駛系統(tǒng)和無人駕駛實驗中,均使用了GPU作為加速芯片。然而,從芯片底層架構來講,由于GPU并非專為深度學習設計的專業(yè)芯片,并非是人工智能加速硬件的最終答案。
FPGA是一種通用型的芯片,設計更接近于硬件底層的架構,其最大特點是可編程?;诳删幊痰奶攸c,用戶可以通過燒入FPGA 配置文件來實現(xiàn)應用場景的高度定制,進而實現(xiàn)高性能、低功耗的目的。FPGA 成本較高,更適用于企業(yè)用戶,尤其是可重配置需求較高的軍事和工業(yè)電子領域。
ASIC是對應特定應用場景,針對特定用戶需求的專用芯片。假如把FPGA比作科研研發(fā)專用芯片,那ASIC就是確定應用市場后,大量生產的專用芯片。全定制設計的ASIC芯片,針對專門的應用場景,性能和能耗都要優(yōu)于市場上的現(xiàn)有芯片,包括FPGA和GPU。
類腦芯片架構是模擬人腦的新型芯片編程架構,這種芯片的功能類似于大腦的神經突觸,處理器類似于神經元,而其通信系統(tǒng)類似于神經纖維,允許開發(fā)者為類人腦芯片設計應用程序。通過這種神經元網(wǎng)絡系統(tǒng),計算機可以感知、記憶和處理大量不同的情況。
總而言之,人工智能是一項復雜的前沿、新興技術,在經歷了多次起起伏伏的浪潮之后,這一次人工智能浪潮的產生涉及大數(shù)據(jù)、深度學習、人工智能芯片、計算機視覺處理、自然語言理解、語音識別、語音合成等多項技術。這些技術不斷作用,互相融合,推動技術向前發(fā)展,為人類提供更美好的生活。