英國《金融時報》網站11月17日刊登一篇文章,標題是《人工智能:戰爭新規則》,作者是海倫·沃勒爾。全文編譯如下:
有關人工智能(AI)在戰爭中應用的討論帶來了一種反烏托邦的恐懼。軍事指揮官們期望擁有一支數字化部隊,速度更快、準確度更高,超越人類指揮的戰鬥。然而,也有人擔心隨着AI在戰爭中扮演愈發核心的角色,軍事指揮官可能會失去對戰爭的控制,因為衝突可能會迅速升級,且缺乏道德或法律層面的監督。
理解並降低這些風險是我們這個時代的軍事要務。西方逐漸達成的一個共識是,部署核武器的決策不應交給AI。聯合國秘書長古特雷斯更是進一步呼籲全面禁止完全自主的致命武器系統。
監管必須跟上技術發展的步伐,這至關重要。但在科幻作品激發的興奮場景下,人們很容易忽略實際可能發生的事情。正如哈佛大學貝爾弗科學和國際事務中心的研究人員所指出的,AI樂觀派常常低估部署完全自主武器系統所面臨的挑戰。AI在戰鬥中的能力完全有可能被過度誇大。
這一觀點的主要支持者安東尼·金教授認為,AI不會取代人類,而是會用於提升軍事洞察力。儘管戰爭的性質正在改變,遠程技術也在改進武器系統,但他堅稱:“戰爭的完全自動化不過是一種幻想。”
當前,AI在軍事領域的三個應用場景都算不上完全自主。AI正被用於規劃與後勤、網絡戰(包括破壞、間諜活動、黑客攻擊和信息戰)以及最具爭議的武器瞄準。後者已在烏克蘭的戰場上投入使用。基輔的軍隊使用AI軟體來指揮無人機,在接近敏感地點時能夠避開俄羅斯的干擾器。
有一種有趣的觀點認為,對在戰爭中應用AI感到恐懼和震驚的人中,可能有一部分是那些不熟悉殘酷但現實的軍事規範的人。部分反對將AI用於戰爭的聲音與其説是針對自主系統的使用,不如説是反對戰爭本身。
AI公司對於在軍事領域應用其産品的態度發生了巨大轉變。2024年初,開放人工智能研究中心(OpenAI)明確禁止將其AI工具用於戰爭,但到了當年年底,它與安杜裏爾公司簽署了一項協議,幫助該公司在戰場上擊落無人機。
這一步雖不是完全自主武器,但絕對是AI在戰場的應用,標誌着一個重大轉變,即科技公司可以公開其與軍工系統的&&。
反對AI戰爭的人可分為幾類。其中一類人根本不認同瞄準更精確就意味着傷亡更少,或者説,他們認為這只會導致更多戰爭。想想阿富汗無人機戰爭的第一個階段。隨着無人機襲擊的實施成本降低,我們真的能説它減少了殺戮,還是僅僅意味着每花一美元就能造成更多破壞呢?
但還有一類批評者來自熟悉戰爭現實的人,他們對這項技術的根本局限性有非常具體的不滿。例如,前美國海軍戰鬥機飛行員、喬治·梅森大學工程與計算機科學教授米茜·卡明斯就直言不諱地認為,大語言模型在軍事場景中特別容易犯嚴重錯誤。
我們應該繼續質疑AI戰爭系統的安全性,並保證政治領導人在這方面負起責任。我們也應對一些科技公司就AI在戰場上可能實現的目標所作出的“極其宏大的承諾”持懷疑態度。
新的國防科技領域為軍方提供的東西,既是機遇也是風險。危險在於,在AI武器軍備競賽過程中,這些新興能力可能無法得到它們迫切需要的審視和討論。(編譯/涂頎)





