據日本《朝日新聞》6月7日報道,日本防衛省6日首次制定併發布了關於人工智能(AI)武器研發的“AI適用指南”,以期在管理AI風險的同時推動應用AI技術。關於無人機等AI武器的開發,指南明確提出了“人類責任明確化”等要求。
日本防衛大臣中谷元在6日的記者會上強調:“根據指南內容,可以在降低AI應用風險的同時,最大限度從中受益。”
去年7月,防衛省制定了關於有效利用AI的基本方針,設定了包括“指揮控制”在內的七個重點領域,並明確指出“人類干預”的必要性。在此基礎上,此次指南提出了在武器研發中涉及AI應用的思路與審查制度。
具體而言,研發對象被劃分為“高風險”和“低風險”兩類。例如,如果AI能夠識別攻擊目標並直接觸發導彈發射,則被劃為“高風險”一類;而如果即使AI能夠識別目標,也仍由人類作出判斷,則被視為“低風險”。
針對“高風險”項目,防衛省將從法律與政策角度審查其研發可行性。若無法遵守國際法或國內法,或者涉及人類無法干預的致命性自主武器系統,則不允許推進開發。此外,專家會議將進行技術性審查,從七個方面展開調查。
由於AI武器可能出現錯誤判斷,相關研發管製成為國際社會廣泛討論的課題。日本政府此次發布指南,旨在通過提供AI風險管理標準,推動國內在武器研發中有效利用AI技術。
熟悉軍事領域相關國際法的京都産業大學教授岩本誠吾對指南評價道:“內容遵循國際社會達成共識的倫理框架,值得肯定。”在此基礎上他指出,在AI迅速發展的背景下,“未來AI可能自主升級,隨着科技不斷進步,有必要進行嚴格的法律審查”。(編譯/馬曉雲)
【糾錯】 【責任編輯:王金志】