周三,微軟的人工智能聊天機(jī)器人 Tay 短暫回歸了 Twitter ,但是她依然非常不智能。
盡管這次 Tay 不再像首次上線時那樣發(fā)布大量帶有仇恨與偏見的信息,但仍然出言不遜。
她先是在推特上發(fā)布了一條“我在警察面前嗑藥”的推特。接著她就失控了,所有關(guān)注 Tay Tweets 的用戶都會重復(fù)不斷地收到來自 Tay 發(fā)布的同一條推特 “ 你們太快了,請休息一下。”
于是 Tay 馬上又從推特上下線了,這一次微軟將 Tay 的頁面信息設(shè)置為了隱私,想要關(guān)注她的用戶必須通過后臺驗(yàn)證,任何用戶現(xiàn)在都沒辦法再看到 Tay 所發(fā)送的歷史消息。
上周 Tay 因?yàn)楦鞣N過激言論而被迫下線后,微軟的副總裁 Peter Lee 曾出面道歉并表示漏洞被人利用是造成不當(dāng)言論發(fā)布的主要原因,當(dāng)微軟的工程師們能夠更好地預(yù)計(jì)和控制人工智能會表達(dá)的言論之后,再上線 Tay 。
但,人工智能 Tay 這次又失控了。
微軟一開始意圖將 Tay 打造為一個能夠在推特上與 18-24 歲的年輕人進(jìn)行交流的女孩兒,同時通過不斷學(xué)習(xí)新的信息而變得越來越聰明。但這兩次 Tay 的上線時間都非常短暫,我們甚至都還沒有機(jī)會看看當(dāng) Tay 的學(xué)習(xí)時間足夠多時,她是否能變成一個正常的 19 歲女孩兒。
人工智能依然有很長的路要走。