人類戰(zhàn)爭史表明,前沿科技往往首先應用于軍事領域。但幾乎從未有一種技術(shù)在應用于軍事時像人工智能(AI)一樣,既被寄予厚望,又遭眾多反對。美國《華爾街日報》近日的一篇報道強調(diào),盡管近年來美軍無人機也多次發(fā)生誤傷平民的事件,但這并非是智能化武器的錯,而是情報識別出了問題。而五角大樓發(fā)展Maven計劃項目,正是為了更精確地識別、殺傷恐怖分子等敵人,因此谷歌公司“如果真是為了和平,更加應該準備戰(zhàn)爭”。
對此,中國指揮與控制學會青工委副主任、國防科技大學軍事專家石海明副教授對科技日報記者表示,“毋庸置疑,人工智能技術(shù)對于保障國家安全具有巨大潛力,但就目前來看其技術(shù)成熟度還遠遠不夠。在以往的研究和實踐過程中,人工智能技術(shù)也表現(xiàn)出了不確定性及失控的風險,比如無人駕駛汽車的傷人事故,以及曾經(jīng)出現(xiàn)的美軍‘利劍’機器人‘倒戈’(將槍口對準美軍士兵)事件。反人工智能軍事化的思潮就反映了人們對其軍事應用前景的某種擔憂和焦慮。”
記者了解到,近年來,以無人機為代表的智能武器裝備獲得了長足發(fā)展,包括地面、水面以及水下無人作戰(zhàn)裝備也開始陸續(xù)投放戰(zhàn)場,這些人工智能系統(tǒng)已經(jīng)成為一支不可忽視的重要作戰(zhàn)力量。
目前,軍事智能化發(fā)展受到了世界主要大國高度重視。自上世紀80年代以來,人工智能技術(shù)經(jīng)歷幾次發(fā)展起伏,美國、日本、蘇聯(lián)/俄羅斯和歐洲部分國家先后投入巨資,大力資助和主導人工智能技術(shù)的研發(fā)工作。
而我國也在相關技術(shù)應用領域展開了前瞻性研究。國務院印發(fā)的《新一代人工智能發(fā)展規(guī)劃》中指出,要促進人工智能技術(shù)軍民雙向轉(zhuǎn)化,這將有利于新一代人工智能技術(shù)在指揮決策、防務推演、國家安全等領域的開發(fā)應用。
“人工智能在軍事領域的應用前景極為廣闊,包括軍用人工智能機器翻譯系統(tǒng)、智能電子戰(zhàn)系統(tǒng)、自動情報與圖像識別系統(tǒng)、算法戰(zhàn)武器等。此外,在作戰(zhàn)輔助決策系統(tǒng)、指揮與控制系統(tǒng)等以往由人主導的領域,也將逐漸演進到人機協(xié)同狀態(tài)。當然,對未來的發(fā)展前景我們?nèi)孕枵J真研判,而非盲目樂觀,只有隨著仿腦芯片、人機交互技術(shù)、腦機接口技術(shù)等技術(shù)領域發(fā)生顛覆性突破,軍事領域才有可能引爆真正的革命性浪潮。”石海明說。
實際上,自從以無人機為代表的智能武器裝備投入戰(zhàn)場,有關戰(zhàn)爭責任的倫理問題就不斷涌現(xiàn)。比如,自主機器人能否被授權(quán)殺人?參戰(zhàn)的自主機器人是否應承擔戰(zhàn)爭責任?等等。
“必須指出,對人工智能的軍事應用,還有一些問題需要深入研究。比如,人工智能在某些領域的潛能是否會超越人類?人工智能是否會脫離人類的控制?是否會威脅人類的生存?……目前,這些討論主要還集中在科技倫理領域,有來自軍事、科技、文化及哲學等多領域的探究,對技術(shù)的長遠發(fā)展是有益處的。”石海明表示。
“國際社會目前還沒有明確支持一個限制或禁止人工智能武器系統(tǒng)的條約。美軍海軍研究辦公室曾發(fā)表一份報告認為,運用在戰(zhàn)爭中的自主機器人無法承擔法律責任。目前機器人還無法分辨平民和士兵,似乎也就無法為其行為負責。”石海明指出,“但是,機器人被‘授權(quán)’殺人或者‘自主’殺人,到底應該追究其‘代理人’或者‘授權(quán)者’的戰(zhàn)爭責任?還是程序編寫者的責任呢?這些都還需要軍事學界和倫理學界的探討交流。不過有一點可以斷定,從人類軍事技術(shù)創(chuàng)新史的大尺度來看,人工智能深度參與戰(zhàn)爭,已經(jīng)呈現(xiàn)出一種不可逆轉(zhuǎn)的趨勢。”