美國(guó)國(guó)防創(chuàng)新委員會(huì)制定了人工智能使用原則
據(jù)俄羅斯衛(wèi)星通訊社sputniknews報(bào)道,美國(guó)五角大樓發(fā)表聲明宣布,正式通過(guò)了在武器中使用人工智能的倫理原則。
據(jù)悉,在經(jīng)過(guò)為期15個(gè)月制定出作戰(zhàn)機(jī)器的倫理原則后,這些建議于2019年秋季送交美國(guó)防部長(zhǎng)馬克?埃斯珀。人工智能本身將在未來(lái)可能定義和執(zhí)行作戰(zhàn)任務(wù)的可能性正在引起美國(guó)國(guó)內(nèi)外專家針對(duì)軍方的激烈爭(zhēng)議和批評(píng)。
目前,五角大樓將遵循五項(xiàng)基本原則。人工智能應(yīng)是“負(fù)責(zé)”(Responsible)、“公平”(Equitable)、“可追蹤”(Traceable)、“可靠”(Reliable)和“可控”(Governable)的。
五角大樓解釋說(shuō),“負(fù)責(zé)”原則要求在作戰(zhàn)機(jī)器研制時(shí)具有“應(yīng)有的常理和謹(jǐn)慎水平”。五角大樓認(rèn)為,“公平”是指作戰(zhàn)機(jī)器“為最大程度減少意外偏差所需的步驟”。同時(shí),“可追蹤”的人工智能是指軍方將擁有所需的技術(shù)和操作技能,并確保程序和文檔記錄的透明度。如果在開發(fā)和使用過(guò)程中賦予人工智能“明確描述的功能”以及對(duì)其不斷測(cè)試,那么人工智能就應(yīng)該是“可靠”的。美國(guó)軍方將“可控性”原則稱為,當(dāng)人類操作員在任何情況下都保有關(guān)閉“顯示實(shí)施計(jì)劃外行為”的作戰(zhàn)機(jī)器的能力。
美國(guó)國(guó)防創(chuàng)新委員會(huì)制定了人工智能使用原則,該委員會(huì)除軍方和官員外還采用了技術(shù)專家的意見。