新華網 > > 正文
2023 06/ 09 10:07:06
來源:解放軍報

AI武器化面臨的困局:或使裝備“精神失常”

字體:

    原標題:AI武器化面臨的困局

    近日, 在英國皇家航空學會主辦的一次未來空戰主題會議上,美國空軍“人工智能測試與行動計劃”負責人漢密爾頓描述的一個例子引發熱議。這個例子的大體內容是:一架執行壓制防空任務的人工智能(AI)無人機,為在模擬測試訓練中得分,“殺死”了阻止自己得分的操作員,在被“告知”殺死操作員要扣分時,又通過攻擊通信塔中斷了操作員與自己的聯絡來奪得自主權。

    該案例是真實模擬,還是像漢密爾頓澄清的那樣只是一個假想,網上對此爭論不休。但該事件在互聯網上迅速“發酵”的事實,已表明了人們對AI武器化所帶來風險的明顯擔憂,也凸顯了當前AI武器化所面臨的困局。

    AI技術能使無人飛行器、無人戰車、無人艦艇自主能力倍增,已是不爭的事實。依靠先進的邏輯算法與自主學習能力,一些AI技術加持的武器裝備反應速度遠超人類。

    但是,AI技術基於邏輯算法的事實,註定了其應用於軍事也可能是“雙刃劍”。

    2007年,美第三機步師用3&“利劍”機器人進攻一個據點,由於軟體故障,其中1&“利劍”機器人竟調轉槍口對準美軍操作員。該操作員反復嘗試取消行動均未成功,直到有人用火箭筒將其炸翻。

    與此類似,來自軟體或硬體方面的問題,也可能使AI技術加持的武器裝備“精神失常”。

    2017年,曾有不少AI技術企業負責人呼籲,應該禁止在戰爭中使用AI機器人消滅有生力量。2018年,谷歌公司宣布,將中斷與美國軍方在使用人工智能分析無人機視頻方面的合作,並承諾不會將AI技術用於武器開發。

    之所以有人對此呼籲,就是因為其對AI武器化的安全可靠程度心中沒底,認為存在失控風險。

    這種呼籲,顯然沒抵擋住AI技術的倍增效應給武器裝備研發者帶來的誘惑。“給它們的自主權越多,它們的工作效率就越高。”這個結論,使AI武器化的進程不僅沒有放慢反而有所加快,自主武器智能化程度越來越高。

    但這種呼籲,也引發更多關注,使AI武器化面臨更大壓力。畢竟,在人們眼裏,AI武器化不只是科技問題,還是道德、法律、倫理等方面的問題。一個根本性問題就是——“機器人一旦擁有自主消滅人類的智能,意味着什麼?”

    既想借力於AI武器化,又擔心遭其反噬,這就是武器智能化發展要面對的困局。

    很重要的一點是:一切要有度。在武器設計研發之初,就必須周密審慎地考慮加裝緊急情況下的人工干預控制“按鈕”,制訂複雜條件下的處置預案,提供自毀等保底手段,確保AI武器化安全可控。 

【糾錯】 【責任編輯:王金志 】
閱讀下一篇:
010020030330000000000000011100001212197289