發(fā)展人工智能需認(rèn)清人工智能和人類智能的關(guān)系
掃描二維碼
隨時(shí)隨地手機(jī)看文章
人工智能與人類智能的辯論不是一個(gè)公平的競(jìng)爭(zhēng)環(huán)境。誠(chéng)然,人工智能幫助創(chuàng)造了智能機(jī)器,這些機(jī)器可以在特定領(lǐng)域超越人類(例如,正如 AlphaGo 和 DeepBlue 所展示的那樣)。然而,要達(dá)到人類大腦的潛力,它們還有很長(zhǎng)的路要走。盡管人工智能系統(tǒng)的設(shè)計(jì)和訓(xùn)練是為了模仿和模擬人類行為,但它們無(wú)法像人類那樣做出邏輯判斷。
人工智能系統(tǒng)做出決策的能力基于事件、它們所訓(xùn)練的數(shù)據(jù)以及它們與特定事件的關(guān)聯(lián)方式。因?yàn)槿斯ぶ悄軝C(jī)器缺乏常識(shí),他們無(wú)法理解“因果”的概念。而人類生來(lái)就有能力通過(guò)將所學(xué)與邏輯、判斷和理解相結(jié)合來(lái)學(xué)習(xí)和應(yīng)用所學(xué)。
人工智能可以做出比人類更好的決策嗎?
我們都知道人工智能計(jì)算和開(kāi)發(fā)算法的速度有多快。人類得出的結(jié)論主要用作生成算法的基礎(chǔ)。人工智能是否有可能開(kāi)發(fā)出比人類做出更好判斷的程序?人工智能比人類智能好嗎?
是的,它可以。與人腦相比,機(jī)器學(xué)習(xí)(ML) 可以處理更多數(shù)據(jù),并且處理速度更快。這使它能夠發(fā)現(xiàn)數(shù)據(jù)中不會(huì)被人注意到的模式。
當(dāng)我們擁有與非基于人類選擇(結(jié)果)的依賴數(shù)據(jù)相關(guān)的獨(dú)立數(shù)據(jù)時(shí),人工智能可能能夠做出更好的判斷。
人工智能在人類世界中的作用是什么?
通過(guò)人工智能的發(fā)展,數(shù)值循環(huán)提高了生成更快、更精確的模型和估計(jì)操作系統(tǒng)或升級(jí)的大數(shù)據(jù)集表示和混合的能力。雖然這些引領(lǐng)潮流的進(jìn)步可以更快、更準(zhǔn)確地執(zhí)行特定任務(wù),但人類智慧在規(guī)劃和利用人工智能創(chuàng)新方面發(fā)揮著至關(guān)重要的作用。
人造意識(shí)和與之相關(guān)的創(chuàng)造性安排受到人類智力的影響。人類的智力努力解釋事情發(fā)生的原因,并通過(guò)簡(jiǎn)單的推理“考慮一個(gè)場(chǎng)景”。在利用 AI 生成的結(jié)果時(shí),人的判斷、技能和質(zhì)量保證是必不可少的,因?yàn)楣こ淘O(shè)計(jì)要經(jīng)過(guò)復(fù)雜問(wèn)題和信息性質(zhì)的測(cè)試。
任何人工智能法規(guī)要想成功,都需要像高速公路系統(tǒng)一樣——有速度限制,違規(guī)行為可以客觀衡量和處罰。因此,由于企業(yè)和行業(yè)似乎無(wú)法就如何解釋分析決策或人工智能模型達(dá)成一致,因此需要引入專家,并賦予他們做出艱難決策的權(quán)力:定義可接受的特定工具和算法,并將行業(yè)衡量的通過(guò)/失敗指標(biāo)標(biāo)準(zhǔn)化,而不是簡(jiǎn)單的“自我報(bào)告”標(biāo)準(zhǔn)和關(guān)于如何滿足這些標(biāo)準(zhǔn)的大量混亂行動(dòng)。
通過(guò)這種方式,我們可以客觀地衡量AI是如何發(fā)展的,它的功能是什么,它的工作做得好和正確,還是不好和錯(cuò)誤?
國(guó)外某些行業(yè)在分析模型、分析決策、違規(guī)和處罰方面處于領(lǐng)先地位。例如抵押貸款行業(yè)就是一個(gè)很好的例子。信貸決策遵循旨在消除偏見(jiàn)和歧視的指導(dǎo)方針。不遵守規(guī)則(使用有偏見(jiàn)的數(shù)據(jù)、決策標(biāo)準(zhǔn)或模型)的銀行將面臨監(jiān)管機(jī)構(gòu)的嚴(yán)厲處罰,并最終失去消費(fèi)者的信任和業(yè)務(wù)。
法律將推動(dòng)人工智能的倫理
人工智能倡導(dǎo)團(tuán)體的崛起,比GDPR和相關(guān)法規(guī)預(yù)期的個(gè)人投訴擁有更大的影響力。這些團(tuán)體正在推動(dòng)人們更多地認(rèn)識(shí)到人工智能對(duì)消費(fèi)者生活的影響,當(dāng)然,還有可能因有偏見(jiàn)的人工智能而承擔(dān)法律責(zé)任。最重要的是,風(fēng)險(xiǎn)暴露往往會(huì)促使企業(yè)解決人工智能的倫理和偏見(jiàn)問(wèn)題,特別是在使用人工智能的創(chuàng)新企業(yè)是集體訴訟的目標(biāo)的情況下。
人工智能何時(shí)醒來(lái)?人工智能的災(zāi)難何時(shí)開(kāi)始?面對(duì)人工智能的發(fā)展,持有人工智能威脅論的人總會(huì)思考這個(gè)問(wèn)題。AI危機(jī)何時(shí)開(kāi)始?即使是對(duì)人工智能有深入研究的專家也無(wú)法在這個(gè)問(wèn)題上得出結(jié)論。但在最近的人工智能發(fā)展中,我們似乎看到了一些人工智能危機(jī)的跡象。
前面我們提到,Facebook創(chuàng)始人馬克·扎克伯格非??春萌斯ぶ悄艿奈磥?lái),同時(shí)對(duì)馬斯克提出的人工智能威脅論也很不滿意。但前段時(shí)間在Facebook發(fā)生了一件事情,這讓扎克伯格和他的程序員們著實(shí)吃了一驚。Facebook在扎克伯格的領(lǐng)導(dǎo)下,對(duì)人工智能技術(shù)進(jìn)行了許多不同的研究。前段時(shí)間,facebook公司從眾多機(jī)器人中選擇了兩款智能機(jī)器人參與社交網(wǎng)絡(luò)助手實(shí)驗(yàn)。