科學(xué)家大戰(zhàn)“僵尸”:社交網(wǎng)絡(luò)機器人如何操縱社交系統(tǒng)?
2013年,丹麥技術(shù)大學(xué)的計算機科學(xué)家Sune Lehmann為了課堂上的一個社交網(wǎng)絡(luò)實驗,設(shè)計了他的第一批網(wǎng)絡(luò)機器人。他說,當時Twitter上的機器人非常簡單模糊,它們的存在主要是為了增加一些Twitter賬號的粉絲數(shù)量。Lehmann希望讓學(xué)生知道,這類機器人會如何操縱社交系統(tǒng)。為此,他們共同設(shè)計了歌手賈斯汀·比伯(Justin Bieber)的虛擬粉絲機器人。
“比伯機器人”(Bieber Bots)的設(shè)計很簡單,并且迅速吸引了成千上萬的關(guān)注者。但是,社交媒體機器人在不斷演變,越來越復(fù)雜,難以被發(fā)現(xiàn)。2016年美國總統(tǒng)大選之后,這些機器人迅速成為公眾關(guān)注的焦點;有人指控稱,大量網(wǎng)絡(luò)機器人被部署在社交媒體上,為特朗普在選舉中造勢?!巴蝗恢g,它變成了大家都感興趣的東西?!盇llem說。
社交媒體機器人批量吐出計算機生成的內(nèi)容,被指通過散布錯誤信息,影響選舉,損害公共健康?,F(xiàn)在,一些社會科學(xué)家提出了一項新的指控:對于一些通過挖掘Twitter、Reddit和Instagram等熱門網(wǎng)站,以獲取有關(guān)人類健康和行為信息的研究,社交媒體機器人會混淆視聽。
這類網(wǎng)站的數(shù)據(jù)可以幫助科學(xué)家了解:自然災(zāi)害如何影響心理健康;為什么美國的年輕人對電子煙趨之若鶩;人們?nèi)绾瓮ㄟ^復(fù)雜的社交網(wǎng)絡(luò)聚集起來。要開展這些研究,就要將真實的聲音與網(wǎng)絡(luò)機器人的“聲音”區(qū)別開來。
“網(wǎng)絡(luò)機器人被設(shè)計成像真人一樣上網(wǎng),”洛杉磯南加州大學(xué)的社會科學(xué)家Jon-Patrick Allem說,“如果研究人員想要描述公眾的態(tài)度,就必須確保他們在社交媒體上收集的數(shù)據(jù)確實來自真人?!?
之后,Allem用證據(jù)表明,網(wǎng)絡(luò)機器人更容易生成電子煙有助于戒煙1的推文,其概率是真人推文的兩倍——而事實是,這種論斷仍有很大的爭議。還有研究發(fā)現(xiàn),機器人更容易宣揚大麻未經(jīng)證實的健康益處2。這些研究都是依靠算法來估計某個Twitter賬號為自動運行賬號的可能性。但是Allem表示,盡管有Botometer和BotSlayer之類的機器人檢測工具,許多社會科學(xué)和公共衛(wèi)生研究人員仍然未能采取必要步驟,把可能為自動生成的內(nèi)容從其數(shù)據(jù)中過濾掉。這里的部分原因在于,有些研究人員認為自己不具備這么做的專業(yè)知識。
Amelia Jamison警告說,這種疏忽會污染整個數(shù)據(jù)集。Amelia Jamison在馬里蘭大學(xué)研究健康差異,她在社交媒體上挖過反對疫苗接種的帖子。她說:“你可能會把它們視作真實討論的一份子,聽取這些聲音,但其實它們夸大了一些社群本身沒有表達的意見?!彼赋?,以她的研究課題為例,如果不剔除網(wǎng)絡(luò)機器人的影響,她可能會認為反對疫苗的聲音越來越多或是以變相的方式又出現(xiàn)了,而實際情況并非如此。
德國萊布尼茨社會科學(xué)研究所的信息科學(xué)家Katrin Weller認為,該領(lǐng)域必須解決的一個問題是如何定義網(wǎng)絡(luò)機器人。并非所有的網(wǎng)絡(luò)機器人都在惡意散布錯誤信息:某些機器人會提供氣象站的最新天氣情況、浮標采集的海平面變化數(shù)據(jù),或是一般新聞報道。Weller指出,一些研究人員對Twitter機器人的定義是,每天發(fā)送消息超過一定數(shù)量的賬號——這個定義較為寬松,會把一些愛刷屏的真人推特賬號誤算在內(nèi)。
其他定義更為復(fù)雜一些。機器人檢測器與機器人開發(fā)者始終處于一種“你追我趕”的競賽中。第一代社交媒體機器人還是相對簡單的程序,只會固定地轉(zhuǎn)發(fā)他人的帖子。但是時至今日,隨著機器學(xué)習(xí)的不斷發(fā)展,能夠發(fā)布原創(chuàng)內(nèi)容的復(fù)雜機器人已經(jīng)問世了。有些機器人會不定時地發(fā)布一些內(nèi)容,還會模仿人類的習(xí)慣,例如在大家可能睡著的時候不發(fā)任何東西。一些機器人開發(fā)者會將真人生成的內(nèi)容與自動生成的內(nèi)容混在一起,增強機器人的偽裝能力。
像Lehmann一樣,一些社會科學(xué)家正在自己設(shè)計機器人,來開展社會實驗。賓夕法尼亞州立大學(xué)的政治學(xué)家Kevin Munger和他的同事制造了一些特別的機器人,這些機器人能識別使用種族主義語言的Twitter用戶,并對其進行指責。研究人員讓一組機器人使用白人男性作為頭像,另一組使用黑人男性作為頭像。Munger發(fā)現(xiàn),Twitter用戶在被前一組機器人指責后,更有可能淡化種族主義言論3。
在比伯機器人大獲成功之后,Lehmann又設(shè)計出了更先進的機器人,以研究行為如何從一個群體傳播到另一個群體。但是,由于網(wǎng)絡(luò)機器人已經(jīng)聲名狼藉,可能出現(xiàn)的公眾抗議讓他考慮放棄該方法?!皣@網(wǎng)絡(luò)機器人的一切都糊了?!? 他說,“我有時候會想:‘我要再找一個安靜的角落,在不會招致爭議的情況下安心做研究?!?”
“一旦你對網(wǎng)絡(luò)機器人以及檢測它們的方式有了更多的了解,它們的創(chuàng)建者也掌握了同樣的信息?!比鹗刻K黎世大學(xué)的定量健康地理學(xué)研究人員Oliver Grübner說,“這是一個非常棘手的問題。”