新華網 > > 正文

軍事AI化正重塑未來戰爭圖景

2018年04月18日 16:10:35 來源: 科技日報

    近日,谷歌3100名員工聯名發出公開信,要求谷歌退出美國國防部人工智慧軍事項目——Maven計劃,並承諾永不參與打造任何類型的戰爭科技。

    隨後,4月9日,聯合國《特定常規武器公約》政府專家小組在日內瓦召開會議,專項討論“殺人機器人”可能帶來的影響。那麼,以人工智慧為基礎的軍事係統,能否代替人類做出恰當的軍事決策?人工智慧與軍事真的不能共存嗎?

    引領了哪些軍事變革——無人化智能化走向現實

    “人工智慧在軍事領域的應用廣泛,包括軍用人工智慧機器翻譯係統、智能電子戰係統、自動情報與圖像識別係統、人工智慧武器等等。”中國指揮與控制學會青工委副主任、國防科技大學軍事專家石海明對科技日報記者表示,“在遙遠的未來,人工智慧也許會像一些科幻電影中描繪的那樣,使後人類戰爭從科幻變成現實。”

    人工智慧在某些軍事領域已表達出超越人類的能力。在2016年舉行的一次模擬空戰對抗比賽中,人工智慧係統通過靈活、迅捷的動作擊敗了具備更強武器係統的退役戰鬥機飛行員,就像一個象棋大師輸給了電腦。

    “目前在武器裝備和指揮控制方面,人工智慧主要集中在陸地、海洋、太空等各類作戰機器人的研發應用和各類智能炸彈的研發領域。隨著數據挖掘技術、大規模並行演算法及人工智慧技術的不斷完善並廣泛應用在軍事上,情報、決策與作戰一體化將取得快速進展。”石海明説。實際上,能在無人控制的情況下搜索並消除目標的自主武器就是典型應用,也是當前人工智慧軍事化的最主要應用。

    石海明介紹,能夠自主運作的軍用機器人被歸為致命性自主武器係統(LAWS),目前各國發展的無人飛行器、無人地面車輛、無人水面艇等能夠自主運作的武器係統在某種程度上都屬于LAWS的范疇。這些武器裝備體現出了較高的應用價值。

    “具有人工智慧的軍事機器人將改變未來戰爭形態,促進軍事理論、體制編制、作戰人員、戰法戰術等多方面的變革,使未來戰爭呈現出無人化和智能化的特點。”石海明指出。

    是否有局限性——復雜環境程式中容易失控

    2017年人工智慧國際會議上,特斯拉首席執行官馬斯克、蘋果聯合創始人沃茲、研發“阿爾法圍棋”的深度思維公司哈薩比斯等人簽署公開信,呼吁聯合國應像禁止生化武器一樣,禁止在戰爭中使用致命的自主武器和“殺手機器人”。霍金也曾指出,脫離人類控制之下的機器很難被阻止住。

    石海明認為:“由于人工智慧技術的發展局限,機器人可能將在環境或執行程式復雜的情況中出現失控現象,比如在單獨執行作戰任務或人機深度交流時。”

    2007年10月,美軍第三機步師一部帶著3臺“利劍”機器人進攻一個反美武裝盤踞的據點時,由于沒有及時更換軟件,其中一臺“利劍”竟把槍口瞄準美軍操作者,而且無論操作員如何發出“行動取消”的指令,失控的“利劍”就是停不下來,直至用火箭筒把它炸翻才化險為夷。

    但石海明還是對人工智慧未來在軍事上的應用表達了謹慎的樂觀。他認為,“這樣的思潮在人類歷史上的技術革命時期都曾出現過,比如工業革命時期的盧德運動。這一現象的本質原因在于技術異化對人類的威脅。目前來看,人工智慧在軍事領域的應用潮流勢不可擋,在可預見的時期內,人工智慧將在情報偵察、後勤保障、無人作戰係統等領域發揮重要作用。”

    如何降低負面影響——人機結合、以人為主

    隨著越來越多的國家投入到軍用機器人的研究與開發中去,世界已在不知不覺中滑進了一場機器人軍備競賽。

    毋庸置疑,軍事機器人相比于士兵,主要在功能、體能、效能方面具有優勢。軍事機器人可以同時承擔多項復雜任務,作戰可以更加持久,在程式設定完備後能夠高效精準達成目標,失誤率較低。特別是完全自主機器人具有持續作戰時間長、反應能力快、生存能力強等優勢,將會進一步增加戰爭的強度,與人類戰士相比具有巨大的優勢。

    然而,有關戰爭責任的倫理問題就這樣出現了,參戰的自主機器人到底是不是戰鬥員?又應當承擔何種戰爭的責任?2008年,美軍海軍研究辦公室發表的一份報告認為,用于戰爭的自主機器人無法承擔法律責任。

    石海明指出,“想要盡可能降低人工智慧的負面影響,首先要堅持人機結合、以人為主的原則,人類應當保證對軍事機器人的控制權,制定應對意外事件的應急機制,建立防范機器人失控的後臺程式。另外,應當加強人工智慧的技術預測與評估,在充分試驗與分析的基礎上逐步推進人工智慧技術的軍事應用。”(張強

【糾錯】 [責任編輯: 楊茹 ]
新華炫聞客戶端下載

相關稿件

010020030330000000000000011100291298531121