英媒稱,一個人工智能系統(tǒng)日前與人類就人工智能的危險性展開了辯論——它以微弱優(yōu)勢說服觀眾相信人工智能利大于弊。
據(jù)11月24日報道,由IBM公司開發(fā)的機器人——“辯論家”計劃(Project Debater)——分別代表正方和反方進行了辯論,而每一方的團隊都各有兩名人類辯手。21日晚,這個人工智能平臺在劍橋大學(xué)同學(xué)會以一名美國女性的聲音向觀眾做了正反雙方的開篇立論,其間使用了來自人類預(yù)先提交的1100多份意見中的觀點。
報道稱,在代表正方——主張人工智能弊大于利——時,“辯論家”計劃的開場白帶有陰暗的諷刺意味。它說:“人工智能可以造成許多傷害。人工智能將無法作出一個在道德上正確的決定,因為只有人類才講道德?!?/p>
它還說:“人工智能公司在如何正確評估數(shù)據(jù)集和過濾掉偏見方面仍然極度缺乏專業(yè)知識。人工智能將采納人類的偏見,并把這種偏見固化數(shù)十年時間?!?/p>
報道指出,人工智能利用一款名為“眾包演講”(speech by crowd)的應(yīng)用軟件對人們在網(wǎng)上提交的論點進行分析,進而生成自己的論點?!稗q論家”計劃隨后將人們提交的意見歸入若干關(guān)鍵主題,并識別出冗余觀點——即措辭不同的相同觀點。
報道稱,該人工智能平臺在辯論過程中能做到前后一致,但是也出現(xiàn)了少量紕漏。它有時會說車轱轆話,并且沒有提供具體的例子來支持自己的論點。
在代表反方——主張人工智能整體而言利大于弊——時,“辯論家”計劃稱,人工智能將在某些部門創(chuàng)造新的就業(yè)崗位,并“大大提升工作場所的效率”。
但隨后它又提出了一個與其觀點背道而馳的觀點:“人工智能能夠照顧病人,機器人能夠教導(dǎo)學(xué)童——那些領(lǐng)域也不再需要人類?!?/p>
報道稱,反方以微弱優(yōu)勢獲勝,贏得了51.22%的觀眾票。
報道稱,“辯論家”計劃去年首次與人類展開辯論,它在今年2月與冠軍辯手哈里什·納塔拉詹的一對一較量中失利。納塔拉詹本次也作為反方三辯參加了在劍橋大學(xué)同學(xué)會的辯論。
IBM公司計劃利用“眾包演講”人工智能平臺收集大量人群的反饋。例如,IBM工程師諾姆·斯洛尼姆說,政府可以利用它征求選民對政策的意見,企業(yè)也可以利用它征求員工的意見。
他說:“這項技術(shù)有助于在決策者和將受決策影響的人之間建立有趣和有效的溝通渠道?!?/p>