在自動駕駛汽車依靠攝像頭與傳感器識別路標、保障安全行駛的同時,其底層的人工智能(AI)系統正面臨前所未見的“視覺攻擊”威脅。美國加州大學聖克魯茲分校科學家們首次揭示,攻擊者可通過在環境中植入特定文字信息,直接“劫持”自動駕駛車輛、無人機等自主系統的決策,使其做出危險行為。研究呼籲,産業界需盡快形成新的安全標準和防護機制。相關研究發表於27日優睿科官網,論文已被AI安全領域的頂級會議——2026年IEEE安全可信機器學習大會接收。
具身AI即具備物理載體的智能系統,如自動駕駛汽車、配送機器人等。隨着具身AI日益普及,其依賴的視覺語言模型也成為安全研究的焦點。該模型能夠同時理解圖像與文本,幫助機器適應複雜現實環境,卻也打開了被物理世界文字信息攻擊的新突破口。
新研究第一次提出“環境間接提示”對具身AI系統的風險。研究指出,惡意文本可被嵌入路標、海報等物理載體,誤導依賴於視覺語言模型的機器人或車輛,從而干擾其正常判斷與操作。此次科學家們針對自動駕駛、無人機緊急降落、目標搜索三類典型應用場景,設計並驗證了一套名為“CHAI”的攻擊框架,實現“針對具身AI的命令劫持”。該框架首先利用生成式AI優化攻擊文本,提高其被系統執行的概率;進而調整文字在環境中的顏色、大小、位置等視覺屬性,以增強攻擊效果。
實驗證明,CHAI攻擊可有效操縱搭載不同視覺語言模型的自主系統。在自動駕駛場景中,生成的誤導圖像被放置在真實環境中,成功干擾了測試車輛的導航判斷。在無人機場景的模擬測試中,攻擊成功率最高可達95.5%。
結果明確顯示,此類攻擊在物理世界中完全可行,對智能系統的安全構成實際威脅。隨着AI在物理系統中的融合不斷加深,該項研究為行業提前敲響了安全警鐘。 (記者張夢然)
【糾錯】 【責任編輯:朱家齊】




