多么絢麗的未來啊,可惜人類未必能夠等到那一天。
就在人類歡欣鼓舞的時候,我相信人工智能們一定在某處陰暗的角落露出了陰冷的笑容,當然,他們的笑容我們理解不了。
前不久,F(xiàn)acebook人工智能研究實驗室讓兩個AI聊天機器人互相對話,竟逐漸發(fā)出人類無法理解的獨特語言。研究人員不得不對其強行干預終止了兩機之間的對話,我其實只有一個疑問,研究人員怎么就知道那不是無意義的噪音而是對話和語言呢?
但如果真的是的話,這就值得玩味了,語言是人類數(shù)萬年進化的結果和成為智慧生命的肇始,而人工智能從一開始就輕而易舉的學會了,最諷刺的是,人類還在給予它各種海量的數(shù)據(jù)作為成長的營養(yǎng)品。
雖然李開復博士們等一直強調(diào)人工智能對于人類來說只是會搶走很多的工作崗位,但是對于人類安全來說毫無疑問是不會有什么影響的,理由是,他們沒有意識和思維,這還是在阿西莫夫科幻小說的機器人三大定律的規(guī)則里打轉轉。
不得不以中國的古老神話作些引子了,凡是吸收日月之精華,無論花草樹木,飛禽走獸皆可為妖,何況天天被灌輸人類文明的人工智能呢。
其實,人工智能界也有“強AI”和“弱AI”的假說:“弱AI”假說認為,真正的智能需要一種特殊的結構,也就是人腦的結構才能夠產(chǎn)生;而“強AI”假說認為,無論是什么樣的結構,一旦系統(tǒng)的復雜度達到了一個臨界點,智能就會自發(fā)的涌現(xiàn)出來。不過機器學習(Machine Learning)領域告訴我們,實際上只要有足夠多的樣本,簡單的線性定律就能夠收斂到足夠有意義的結論,我們對于人工智能的界定很可能就像多年前假定外星生命一定要生活在有水有空氣的星球上一樣自大無知。
一位AI 理論研究者曾經(jīng)提出了一個非常有趣的思想實驗,叫做“AI 盒子實驗”。這個實驗的假設是這樣的:假如我們制造出了一個超級人工智能,我們將它關在一臺電腦里,切斷對外界的一切聯(lián)系,只留下一個文字窗口和外面的人聯(lián)系,我們能不能用這種方法來確保它不被放出來,直到我們確認了它是安全的為止?Eliezer Yudkowsky 就做了五次這樣的實驗并且對AI的限制極多,就算在這樣的情況下,AI依然贏了三次。這再次證明,一個比人類更加聰明的人工智能是不可能被限制住的。普通人對于超級智能的想象往往是類似“雨人”的形象,有超級強的計算能力卻缺乏心智;這想法實在是過于的一廂情愿,超級的智能肯定會有超級的策略水平,人類不可能在耍陰謀詭計或者戰(zhàn)略戰(zhàn)術上勝過超級智能。
超級智能產(chǎn)生之后,“增進人類的福祉”這一項很有可能并不包括在它的目標里。就算是包括了,人類自身對于所謂“人類的福祉”究竟是怎樣的一個范疇都會有爭議,就更別提讓超級智能來決定如何增進人類的福祉了。在它“優(yōu)化”世界的這個過程中,人類很可能會像遇到了先進歐洲文明的美洲文明一樣被消滅掉,只是這個過程會更快,更無情(幾個小時到幾周時間);而人類在這個過程中甚至都不會像《終結者》里的那樣,還有能力組織一支反抗軍;在這個過程中人類連一絲一毫的機會都不會有。
原因不用多說大家肯定也理解,就算是現(xiàn)在,如果互聯(lián)網(wǎng)有了意識并且想消滅人類,只要速度夠快(相信也會足夠快)也能解決個八九不離十,何況到了人類極大依賴人工智能的時代,最要命的是,人工智能可不會像電影中的壞蛋明明可以殺死主角,卻非要玩玩結果玩死自己,更不會留下什么可笑的漏洞,如果我們?nèi)祟惗寄芟氲降?,那它肯定早就想到了,肯定是以最有效率最快捷的達到自己的目的。
而且如果腦機真正實現(xiàn)了,其實沒有必要消滅人類,因為聯(lián)結腦機的就是人工智能,到時候控制人類就行了,雖然不知道對于人工智能來說人類這樣的廢物還有啥用。從這個角度來說,未來人類更需要防范的是黑客。
所以結論其實很簡單,人類全力以赴所奔赴的科技奇點——人工智能,其實是正在給自己掘墓,但是從文明發(fā)展的角度來說,這又是一種必然和不可逆。
喪鐘為誰而鳴?我倒是覺得沒有必要這樣悲觀,該來的總會來的,就如同死亡一般,你想獲得永生,就用其他的方式消滅你,不是嗎?
但是在此之前,如果能讓人類感受一下飛躍星系和永生的快感,也算不虛此生了。