據(jù)報道,谷歌CEO桑達爾·皮查伊(Sundar Pichai)周四發(fā)布了一篇文章,闡述了谷歌人工智能研究方面的原則(principles),稱不會將其用于軍事武器。
谷歌闡述了該公司研究人工智能應(yīng)用的原則:該應(yīng)用應(yīng)該對社會有益(Be socially beneficial);不會產(chǎn)生或加強不公平的偏見(Avoid creaTIng or reinforcing unfair bias);安全(Be built and tested for safety)、對人負(fù)責(zé)(Be accountable to people)等等。
谷歌還表示,該公司不會允許其人工智能產(chǎn)品用于軍事,可能造成全面損害的武器或技術(shù)等等。
谷歌最近曾因向美國國防部的Project Maven合作項目提供圖像識別技術(shù)而遭到自家員工的批評。今年,谷歌4000多名員工曾簽署了一份請愿書,要求谷歌管理層停止參與Project Maven,并承諾不再“研發(fā)戰(zhàn)爭技術(shù)”。
另外,微軟CEO納德拉也曾經(jīng)提出過類似的AI安全6大原則。納德拉的六大原則:AI必須以輔助人類為設(shè)計準(zhǔn)則;透明性準(zhǔn)則;AI必須在追求效率最大化的同時,不損害人類的尊嚴(yán);隱私性原則;算法可靠準(zhǔn)則;防偏見準(zhǔn)則。