過去二十多年,企業(yè)遭遇了顛覆性沖擊。事實如此令人震撼:自2000年以來,數(shù)字化顛覆已令半數(shù)的《財富》 500強企業(yè)從榜單除名。 AI將讓數(shù)字顛覆來得更加強烈。
這是因為,人工智能是一種經(jīng)濟學家所定義的通用技術(general-purpose technology)。而通用技術的影響通常巨大而且深遠——我們不妨回想電力和內(nèi)燃機的歷史意義。通用技術影響不僅體現(xiàn)為對社會的直接貢獻,還會通過溢出效應,激發(fā)廣泛的互補式創(chuàng)新。正是由于電力的出現(xiàn),工廠電氣化、電信聯(lián)絡、以及隨之而來的一切方才成為可能。內(nèi)燃機則催生出了汽車、飛機、乃至現(xiàn)代化的運輸和物流網(wǎng)絡。如今,人工智能將以類似的規(guī)模影響整個社會。
究竟人工智能是什么?回答這一問題并不像看起來那么簡單。事實上,就連統(tǒng)一的“人工智能”定義也尚未出現(xiàn)。這是因為,從本質(zhì)來看,我們所談論的人工智能并不真的特指某項技術。從實際層面出發(fā),人工智能涵蓋了一系列不同的技術,通過有效的組合,機器便能夠以類似人類的智能水平展開行動。
我們并未像許多人那樣,不斷嘗試去明確地描述人工智能,而是傾向于將此類技術視為一套能力框架。毫無疑問,這是了解人工智能、知曉其背后廣泛技術的最佳方式。我們的框架以人工智能支持機器實現(xiàn)的主要功能為核心。人工智能系統(tǒng)的學習能力至關重要。能夠通過分析數(shù)據(jù)來決定完成任務所需的行動,而非按照明確的指令、以預先定義的方法行事,正是實現(xiàn)系統(tǒng)“智能化”、將人工智能與其他形式的自動化區(qū)分開來的關鍵。
一旦為最出色的人工智能系統(tǒng)設定出自我學習任務,我們就有望目睹非凡成果。谷歌旗下DeepMind公司開發(fā)的人工智能AlphaGo,已成為首個在高度復雜的棋類競技中擊敗人類專業(yè)棋手的計算機程序6。開發(fā)人員向AlphaGo傳授比賽規(guī)則,然后展示了數(shù)千種人類之間的對局,由系統(tǒng)自行辨別制勝策略。其結(jié)果是: AlphaGo一舉戰(zhàn)勝了擁有傳奇成就的世界圍棋冠軍李世石(Lee Sedol)。
但DeepMind并未就此停止其圍棋領域的成功步 伐 。 公 司 隨 后 開 發(fā) 了 更 為 強 大 的 第 二 代 版本——AlphaGo Zero7,它可以單純通過自我對弈來掌握獲勝之道——完全無需觀察人類棋手。不僅如此, AlphaZero作為人工智能更新迭代的最新版本,實現(xiàn)了更為長足的進步。 AlphaZero已證明,能夠和自己較量來學習國際象棋,并在短短四個小時內(nèi)就超越了人類的技能水平。這項壯舉真正令人矚目的是, AlphaZero并非專門為下棋而設計。
這一過程就是我們所說的機器學習。麻省理工學院的埃里克 布萊恩約弗森(Brynjolfsson)和安德魯 麥卡菲(McAfee)兩位教授觀察發(fā)現(xiàn),其如此強大的原因非常簡單。一方面,雖然我們?nèi)祟惙浅I朴趶氖氯我夥N不同的活動,但我們并不總是明確知曉自身工作是如何完成的。例如我們可能會發(fā)現(xiàn),識別另一個人的容貌很容易,不過我們很難充分了解這項能力的生理機制。因此,將該功能直接通過編碼嵌入機器當中會十分困難。
而另一方面,機器學習使得設備可以完全自主地學會做好這項工作。實際上,識別大量數(shù)據(jù)中存在的模式,恰是機器學習的核心特長之一。機器學習是人工智能系統(tǒng)的核心。它可以從原始數(shù)據(jù)中學習,從而賦能于人工智能可見的出色表現(xiàn),使其變得越來越普遍。無論是進行前瞻判斷的預測系統(tǒng)、近乎實時解讀語音和文本的自然語言處理系統(tǒng)、以非凡準確度識別視覺內(nèi)容的機器視覺技術,還是優(yōu)化搜索和信息檢索,都依托于機器學習。
相對于其他技術,機器學習的一項關鍵優(yōu)勢,就是對“臟”數(shù)據(jù)的容忍度——即數(shù)據(jù)中包含有重復記錄、不良解析的字段,或是不完整、不正確、以及過時的信息。此類問題對企業(yè)來說關系重大:大多數(shù)高管都將非常清楚地認識到,應對臟數(shù)據(jù)將是他們工作中的一大痛點。
機器學習具備靈活性,可隨著時間推移獲得全新發(fā)現(xiàn)并做出改進,這意味著它能夠以更高的準確性處理臟數(shù)據(jù),并且由此擁有了極佳的可擴展性。在我們當前所處的數(shù)據(jù)大爆炸時代,后者正變得越來越重要。機器學習的真正強項之一,便是可以使用不同的學習算法,包括監(jiān)督學習、無監(jiān)督學習和強化學習等類型。
監(jiān)督學習。 這種算法使用帶有標記的數(shù)據(jù)集(數(shù)據(jù)已經(jīng)過整理和描述),推導出每個標記代表的顯著特征,并學習識別新數(shù)據(jù)中的這些特征。例如,向算法展示大量標記為“貓”的圖像,然后它將學習如何識別貓的形象,并在其他任意數(shù)量、且完全不同的圖片中發(fā)現(xiàn)貓。
無監(jiān)督學習。 這種算法使用的數(shù)據(jù)不需要預先定義標記。它采用不帶標簽的數(shù)據(jù)集,查找其中各條目之間的相似與差異,然后自行分類。比如,我們可以向算法展示大量其中包含貓和狗、但未加以標記的圖像,而算法會在不知道哪些圖像分別含有“貓”或“狗”的情況下,把具有相似特征的圖像分類到不同的組當中。
強化學習。 這種算法利用反復試錯,形成“獎勵”和“懲罰”的反饋循環(huán)。當算法得到數(shù)據(jù)集時,它將所處環(huán)境視為一場比賽,每次執(zhí)行動作都會被告知是贏還是輸。通過這種方式,它可以創(chuàng)建出一套方案——哪些“動作”能夠帶來成功,而哪些會造成反效果。 DeepMind的AlphaGo和AlphaZero都極好地展示了強化學習的威力。