披著AI外衣的人工服務(wù) “假AI”興起
外媒撰文揭秘“假AI”的興起。人工智能近年來(lái)已經(jīng)成為熱詞走入大眾視線,有的科技公司也對(duì)外宣稱自己的服務(wù)是由人工智能驅(qū)動(dòng)的,但實(shí)際上它們是披著AI外衣的人工服務(wù)。
以下是文章主要內(nèi)容:
打造一項(xiàng)由人工智能驅(qū)動(dòng)的服務(wù)并非易事。事實(shí)上,一些初創(chuàng)公司發(fā)現(xiàn),讓人類像機(jī)器人一樣行動(dòng)比讓機(jī)器像人類一樣行動(dòng)要更加便宜、更加容易。
“利用人來(lái)做事可以讓你跳過(guò)很多技術(shù)和業(yè)務(wù)發(fā)展方面的挑戰(zhàn)。很明顯,這不能規(guī)?;?,但它允許你建立起某種東西,在一開(kāi)始跳過(guò)困難的部分。”ReadMe的首席執(zhí)行官格雷戈里·科貝格(Gregory Koberger)說(shuō)道。他說(shuō)他遇到過(guò)很多“假AI”。
“這實(shí)際上是用人類來(lái)對(duì)AI進(jìn)行原型設(shè)計(jì)。”他稱。
《華爾街日?qǐng)?bào)》本周刊文提到了這種做法,重點(diǎn)談到被谷歌允許訪問(wèn)用戶郵箱的數(shù)百名第三方應(yīng)用開(kāi)發(fā)者。
在圣何塞公司Edison Software的例子中,人工智能工程師們?yōu)g覽了數(shù)百名用戶(個(gè)人身份信息經(jīng)過(guò)處理)的個(gè)人電子郵件信息,以期改進(jìn)“智能回復(fù)”功能。該公司沒(méi)有在其隱私政策中提及有人會(huì)查看用戶的電子郵件。
《華爾街日?qǐng)?bào)》的文章著重談到的第三方遠(yuǎn)非第一個(gè)那么做的人。2008年,致力于的Spinvox公司被指控利用在海外呼叫中心的人工而不是機(jī)器來(lái)完成將語(yǔ)音郵件轉(zhuǎn)換為文字信息的工作。
2016年,彭博社也說(shuō)過(guò)人類每天12個(gè)小時(shí)假裝是X.ai、Clara等日程安排服務(wù)的聊天機(jī)器人,指出了這種困境。這種工作單調(diào)乏味讓人麻木,員工們都說(shuō)他們期待著被機(jī)器人取代的那一天的到來(lái)。
2017年,商業(yè)費(fèi)用管理應(yīng)用程序Expensify承認(rèn),它一直使用人工來(lái)處理至少一部分它對(duì)外聲稱用其“智能掃描技術(shù)”(smartscan technology)來(lái)完成的收據(jù)轉(zhuǎn)錄工作。那些收據(jù)的掃描照被發(fā)布到亞馬遜的Mechanical Turk眾包勞動(dòng)工具上,然后由上面的低薪工作者們?yōu)g覽和抄錄那些收據(jù)的信息。
“我想知道Expensify的SmartScan用戶是否知道輸入他們的收據(jù)信息的其實(shí)是MTurk眾包工作者。”“眾包工作者、Twitter上的零工經(jīng)濟(jì)勞工擁護(hù)者羅謝爾·拉普蘭特(Rochelle LaPlante)說(shuō)道,“我在查看某人的Uber收據(jù),上面有他們的全名以及上下車的地址。”
就連在人工智能領(lǐng)域投入巨資的Facebook,也依賴人工來(lái)為其通訊應(yīng)用Messenger提供虛擬助手服務(wù)。
在一些情況中,人類被用來(lái)訓(xùn)練人工智能系統(tǒng)并提高它的準(zhǔn)確性。一家名為Scale的公司為一群人類員工提供自動(dòng)駕駛汽車和其他由人工智能驅(qū)動(dòng)的系統(tǒng)的訓(xùn)練數(shù)據(jù)。例如,Scale員工將查看攝像頭或傳感器傳來(lái)的信息,然后在邊框內(nèi)給汽車、行人和騎自行車的人貼上標(biāo)簽。有了足夠多這樣的人工校準(zhǔn),人工智能將學(xué)會(huì)識(shí)別這些物體。
在其他的情況中,企業(yè)會(huì)假裝能成功:告訴投資者和用戶它們已經(jīng)開(kāi)發(fā)出一種可擴(kuò)展的人工智能技術(shù),但實(shí)際上它們是偷偷地依賴于人類智能。
心理學(xué)家、Woebot(一種用于心理健康支持的聊天機(jī)器人)的創(chuàng)始人艾莉森·達(dá)西(Alison Darcy)將該做法描述為“巫師般的設(shè)計(jì)技術(shù)”。
“你是在模擬某件事的最終體驗(yàn)。很多時(shí)候,人工智能幕后是有一個(gè)人在操控,而不是算法。”她說(shuō)。她還指出,建立一個(gè)良好的人工智能系統(tǒng)需要“大量的數(shù)據(jù)”,有時(shí)候,在進(jìn)行那樣的投入之前設(shè)計(jì)師想要知道他們想要打造的服務(wù)是否有足夠多的需求。
她說(shuō),這種方法不適用于像Woebot這樣的心理支持服務(wù)。“作為心理學(xué)家,我們受到道德準(zhǔn)則的約束。不欺騙別人顯然是其中一個(gè)倫理原則。”
研究表明,當(dāng)人們認(rèn)為自己是在和機(jī)器交談而不是與人交談時(shí),他們往往更能敞開(kāi)心扉,會(huì)表露更多的信息,因?yàn)閷で笮睦斫】祹椭蝗丝醋魇且环N見(jiàn)不得人的事。
來(lái)自南加州大學(xué)的一個(gè)團(tuán)隊(duì)用一位名叫艾莉(Ellie)的虛擬心理治療師進(jìn)行了測(cè)試。他們發(fā)現(xiàn),當(dāng)退伍軍人知道艾莉是一個(gè)人工智能系統(tǒng)而不是有人在背后操縱機(jī)器時(shí),他們更容易表露自己的癥狀。
另一些人認(rèn)為,公司應(yīng)該對(duì)其服務(wù)的運(yùn)作方式始終保持透明。
對(duì)于企業(yè)假稱利用人工智能提供服務(wù)但實(shí)際上是由人類提供的做法,拉普蘭特說(shuō),“我不喜歡那樣做。對(duì)我來(lái)說(shuō),那感覺(jué)是不誠(chéng)實(shí)的,具有欺騙性的,我可不希望我使用的服務(wù)出現(xiàn)這樣的情況。”
“從工作者的角度來(lái)看,感覺(jué)我們被推到了幕后。我不希望自己的勞動(dòng)力為轉(zhuǎn)頭跟客戶謊稱一切的公司所利用。”
這種道德窘境也讓人聯(lián)想到假裝是人類的人工智能系統(tǒng)。最近的一個(gè)例子是谷歌的機(jī)器人助手Google Duplex,它可以用“嗯”和“呃”等語(yǔ)氣詞來(lái)進(jìn)行極其逼真的電話通話,代人完成預(yù)約和預(yù)訂事務(wù)。
在最初引發(fā)極大的爭(zhēng)議之后,谷歌說(shuō)它的人工智能會(huì)向電話另一端的人類表明自己的身份。
達(dá)西說(shuō),“在他們的演示版本中,在低影響的對(duì)話中,感覺(jué)有點(diǎn)欺騙性。”盡管預(yù)訂餐廳座位可能看起來(lái)是一種沒(méi)什么大不了的互動(dòng),但同樣的技術(shù)如果落入壞人手中,操控性可能會(huì)大得多。
例如,如果你能模擬某位名人或政治家的口音,在電話通話中表現(xiàn)得像是真人一樣,會(huì)發(fā)生什么樣的事情呢?
達(dá)西指出,“人工智能已經(jīng)讓人產(chǎn)生了很大的恐懼,在缺乏透明度的情況下,它并不能真正幫助人們進(jìn)行對(duì)話。”