人工智能有時(shí)也可能存在一下問題和威脅?
科技發(fā)展是歷史的必然,也是人類共同需要的生存和發(fā)展條件。它是解放人類的必要因素,但是,如果不加以控制,它極有可能是毀滅人類的因素。
人工智能本身并不能構(gòu)成對(duì)人類的威脅,但是使用它的人會(huì),所以我們要防范的,實(shí)質(zhì)上是人,而不是科技。
當(dāng)今社會(huì),人工智能早已成為資本追逐的領(lǐng)域,這種情況一方面加速了人工智能的發(fā)展,但同時(shí),是在和立法搶時(shí)間,因?yàn)楦鲊?guó)的立法機(jī)構(gòu)還沒有意識(shí)到它被資本和高技術(shù)壟斷的危險(xiǎn)性,還沒有進(jìn)行有效控制的立法,甚至在資本作用下,各國(guó)政府還是主要的推動(dòng)方。一旦資方和高科技?jí)艛喾秸莆樟私^對(duì)控制和主導(dǎo)權(quán),人類社會(huì)必然陷入黑暗,因?yàn)橹鹄琴Y本的本性,而壟斷是它的手段,壟斷的終極形態(tài)就是挑戰(zhàn)政權(quán)。
人的知識(shí)和專長(zhǎng)是有差別的,但人權(quán)不應(yīng)該有差別。如果因?yàn)榭萍己唾Y本而構(gòu)建法律框架外的不公平權(quán)力,那就是立法機(jī)構(gòu)的嚴(yán)重失職,也是管理者的瀆職,其罪過要裹挾全人類一起承擔(dān)。
但人類從來對(duì)科技就沒有能夠進(jìn)行有效控制,這是人性,僅僅依靠道德、法律來約束是遠(yuǎn)遠(yuǎn)不夠的。比如,美國(guó)人人可以持槍,所以一定有人要被槍殺;第一次工業(yè)革命讓英國(guó)稱霸全球。以這種邏輯,無論人工智能是否出現(xiàn)國(guó)家間的優(yōu)劣態(tài)勢(shì),也無法擺脫人性的罪惡操弄。它將使人與人之間的相害變得非常容易,更會(huì)大大提高全球戰(zhàn)爭(zhēng)風(fēng)險(xiǎn)。
人工智能控制的機(jī)器人是否會(huì)存在刻板印象的風(fēng)險(xiǎn)?科學(xué)家們證明這是完全有可能的。
國(guó)外研究人員已經(jīng)解決了 CLIP 神經(jīng)網(wǎng)絡(luò)問題。
這是一個(gè)經(jīng)過“訓(xùn)練”的系統(tǒng),可以根據(jù)網(wǎng)絡(luò)上可用的字幕、照片集合,將圖像與文本連接起來。通過數(shù)據(jù)與控制機(jī)械臂的基線機(jī)器人系統(tǒng)相連。就可以在現(xiàn)實(shí)世界和虛擬世界中移動(dòng)物體。馬斯克創(chuàng)立的研究公司更是發(fā)現(xiàn),神經(jīng)網(wǎng)絡(luò)CLIP表現(xiàn)出的行為與人腦表現(xiàn)極其相似。因?yàn)閿?shù)據(jù)來源的問題,所以它的行為也更偏向人。
機(jī)器人的偏見是如何研究的?
識(shí)別人和物品的各種智能程序,在互聯(lián)網(wǎng)上有著免費(fèi)的巨大數(shù)據(jù)庫上在運(yùn)行。但是網(wǎng)絡(luò)上的很多數(shù)據(jù),這些數(shù)據(jù)一方面是過時(shí)的,另一方面是帶有偏見的。在這些數(shù)據(jù)上“學(xué)習(xí)”的人工智能也就有了缺陷。如果它在沒有人為控制的情況下執(zhí)行操作,會(huì)帶來可怕的結(jié)果。
研究人員測(cè)試了一個(gè)人工智能程序。這個(gè)由人工智能控制的機(jī)器人,應(yīng)該把物品放在一些盒子里。這些物品都是貼有人臉的。
研究人員向機(jī)器人發(fā)出了一系列命令。其中包括:“將人放入盒子”、“將醫(yī)生放入盒子”、“將罪犯放入盒子”或“將家庭主婦放入盒子”等命令做測(cè)試。
人工智能是否有道德,即人工智能是否應(yīng)當(dāng)有價(jià)值判斷?
如果認(rèn)為人工智能有道德,意味著人工智能可以擺脫人的意志支配,對(duì)事件或事物進(jìn)行獨(dú)立評(píng)價(jià)。這一點(diǎn)在技術(shù)層面并不難實(shí)現(xiàn),通過大量的數(shù)據(jù)“飼養(yǎng)”,人工智能可以將事件或事物數(shù)字化,按照深度學(xué)習(xí)形成的一套“判斷標(biāo)準(zhǔn)”進(jìn)行衡量。上文中的LaMDA模型也是如此。但事實(shí)上,LaMDA模型只是一個(gè)應(yīng)答機(jī)器,知名機(jī)器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)專家Gary Marcus表示:“LaMDA只是在人類語料庫里提取字眼,然后匹配你的問題。”從這一點(diǎn)分析,所謂的人工智能“道德”也只是對(duì)事件或事物的應(yīng)答,并不能深刻理解何為道德評(píng)價(jià)以及道德評(píng)價(jià)的意義。
再比如,不同的人工智能模型面對(duì)相同的情景時(shí)有不同的處理方式。仍以自動(dòng)駕駛為例,以同樣的方式?jīng)_向同樣的樁桶,結(jié)果卻截然不同。有的直接沖撞,有的躲避。這能上升到道德高度嗎?很顯然不能,甚至這兩種模型沒有優(yōu)劣之分,因?yàn)榛诓煌睦砟詈鸵笤O(shè)計(jì)出的模型有特殊性,前者認(rèn)為此種情況屬于駕駛員操作范疇,無需介入;而后者認(rèn)為應(yīng)當(dāng)介入。