人工智能能征服人類,是夸大其詞嗎
人工智能話題愈演愈熱,互聯(lián)網(wǎng)、硬件領(lǐng)域巨頭紛紛布局,成立專門的研究院攻克這一技術(shù)。
不少科幻影片中已經(jīng)多次描繪出人工智能最終極的形態(tài):像人一樣思考,擁有人的情感。而要達到這樣的強人工智能,目前的技術(shù)還處于初級階段,從技術(shù)來說,自主學習的算法還有待突破。而一旦擁有人類的感情,如何能夠阻止人工智能顛覆人類世界也需要技術(shù)保證安全性能。
深度學習與無監(jiān)督學習
成熟的人工智能研究涉及到好幾百種算法。
“之前大部分的AI運用監(jiān)督式學習算法,未來我們要發(fā)展出更多非監(jiān)督式學習,讓人工智能自主學習,目前朝著良性的趨勢發(fā)展,但還未達到我們希望的階段。”微軟亞洲研究院院長芮勇在全球人工智能與機器人峰會上對包括《第一財經(jīng)日報》在內(nèi)的媒體表示。
監(jiān)督學習以及無監(jiān)督學習分別是人工智能兩種算法。在監(jiān)督式學習下,輸入數(shù)據(jù)被稱為“訓練數(shù)據(jù)”,每組訓練數(shù)據(jù)有一個明確的標識或結(jié)果。在建立預(yù)測模型的時候,監(jiān)督式學習建立一個學習過程,將預(yù)測結(jié)果與“訓練數(shù)據(jù)”的實際結(jié)果進行比較,不斷調(diào)整預(yù)測模型,直到模型的預(yù)測結(jié)果達到一個預(yù)期的準確率。
而無監(jiān)督學習中數(shù)據(jù)并不被特殊標識,也就是在之前,計算機并不被告知怎么做,通過自主學習做法。其中一種無監(jiān)督學習的思路是在成功時采用一定的激勵制度來訓練機器人培養(yǎng)出正確的分類。無監(jiān)督學習方式是機器人工智能發(fā)展的關(guān)鍵技能之一。
除此之外,深度學習也被認為是能夠成就未來超級人工智能的重要研究方向。深度學習試圖建立大得多也復雜得多的神經(jīng)網(wǎng)絡(luò),百度也開始發(fā)力深度學習后,在國內(nèi)引起了很多關(guān)注。而很多深度學習的算法是半監(jiān)督式學習算法,用來處理存在少量未標識數(shù)據(jù)的大數(shù)據(jù)集。
去年,百度在github上開源了其深度機器學習平臺。同時發(fā)布的深度機器學習開源平臺屬于“深盟”的開源組織,其核心開發(fā)者來自百度深度學習研究院(IDL),微軟亞洲研究院、華盛頓大學、紐約大學、香港科技大學,卡耐基·梅隴大學等知名公司和高校。
作為在人工智能布局較早的玩家,百度擁有領(lǐng)先業(yè)界的實力。從2013年百度深度學習研究院(IDL)的創(chuàng)建及2014年Andrew Ng的加盟至今,百度DMLC分布式深度機器學習開源項目已在深度學習的多個應(yīng)用領(lǐng)域做過探索,上線了多個成熟產(chǎn)品。
阻止AI顛覆人類
機器無監(jiān)督式學習讓人工智能離人類智能更近一步,而一旦機器人產(chǎn)生自主學習意識但卻不能像人類一樣分辨信息好壞,則有可能出現(xiàn)如不少電影中所描述的,機器人顛覆人類的場景。
今年3月,微軟在社交軟件Twitter上線了一款名叫Tay Tweets的人工智能機器人,在介紹扉頁,微軟邀請更多網(wǎng)友與Tay交談,并稱Tay會從這些談話內(nèi)容中自主學習與人對話交流。
“在開發(fā)Tay的過程中,我們計劃并配置了許多過濾系統(tǒng),并在多樣化的用戶群體中進行了廣泛的用戶調(diào)研。我們在多種不同環(huán)境中對Tay進行了壓力測試,尤其是確保與Tay的互動能帶來積極體驗。”微軟研究院副總裁Peter Lee表示。
然而,上線不足24小時,Tay受到攻擊,不但頻頻發(fā)出帶有色情挑逗的話語,并且成為了納粹擁護者。微軟不得不關(guān)停Tay并對其進行改進,如今要想看Tay的推文并交流,只能先通過其后臺驗證成為粉絲。
Tay所遭遇的這些漏洞同時也揭示了目前人工智能在自主學習上所面臨的困境:如何讓機器在這個過程中有效過濾出不好的信息。
加利福尼亞大學伯克利分校計算機科學系教授、人工智能專家Stuart Russell認為要造出符合人類預(yù)期的超級智能機器人,必須符合以下原則:機器人通過觀察人類作出的選擇學習人類價值觀,但其不能清晰認識人類價值觀。在執(zhí)行任務(wù)中機器人還應(yīng)該保證最大化實現(xiàn)人類價值。
在這種原則下,機器人不能擁有自己的意志,也不能產(chǎn)生保護自我的內(nèi)在意圖。機器只知道要讓人類的價值最大化,而不知道這種價值具體指的是什么,所以當人準備關(guān)掉機器的開關(guān)時,它就會認為這是一件好事,因為它能明白人類按下關(guān)機按鈕是為了讓機器人不做違背人類價值的事。
“盡管存在各種困難,我還是相信,機器可以充分學習人類的價值觀,在幫助我們的同時不對我們構(gòu)成威脅。”Stuart Russell表示。
“即便人工智能做到感情層面,但是人除了這些東西,還有更復雜的——用大腦構(gòu)建世界,這個人工智能難以模仿。如果有一天人培養(yǎng)的人工智能真正征服了人類,人要么必須超越他創(chuàng)造的奇怪的物種,否則的話他就會被取代。”真格基金創(chuàng)始人王強表示。