防范人工智慧安全風險-新華網
新華網 > > 正文
2022 09/27 07:54:23
來源:經濟日報

防范人工智慧安全風險

字體:

  將一張“神奇貼紙”貼在臉上,就能讓人臉識別門禁係統出現誤判,毫無防備地為陌生人打開大門;把這張“貼紙”放在眼鏡上對準手機,就能解鎖其人臉識別係統,獲取用戶資訊如入無人之境……這曾經只出現在科幻電影中的場景,如今已經在現實生活中發生。日前,首屆人工智慧安全大賽在北京舉辦,上述攻防場景在大賽中令不少觀眾直呼驚訝。

  近年來,我國人工智慧産業規模快速增長。據工信部發布數據顯示,人工智慧核心産業規模超過4000億元,比2019年同期增長6倍多,企業數量超過3000家,比2019年同期增加15%,在制造、交通、醫療、金融等重點行業形成一批典型應用場景。“伴隨應用場景日益廣泛以及使用頻次快速增長,人工智慧安全風險發生的范圍和可能性持續提高。”中國科學院院士、清華大學人工智慧研究院名譽院長張鈸認為,以深度學習為代表的演算法爆發拉開了人工智慧浪潮序幕,在電腦視覺、智能語音、自然語言處理等眾多領域取得長足發展。但以數據驅動的第二代人工智慧在可解釋性、穩健性方面的缺陷也逐漸暴露出來,導致安全事件頻發。如何實現高品質發展和高水準安全良性互動,是當前人工智慧産業面臨的最為重要命題。

  中國資訊通信研究院發布的《人工智慧白皮書(2022年)》同樣指出,隨著人工智慧應用暴露出各種風險和挑戰,以及人們對人工智慧認識的不斷深入,人工智慧治理已經成為全球各界高度關注的議題,對可信安全的呼聲不斷增多。

  “人工智慧安全風險主要從‘人’與‘係統’兩個角度剖析。從人的視角看,人工智慧安全風險存在技術濫用甚至‘武器化’問題。”北京瑞萊智慧科技有限公司CEO田天以深度合成技術為例解釋,該技術能夠大幅提升內容制作效率與品質,但其負向應用——深度偽造的風險正持續加劇且已産生實質危害。比如,通過“AI換臉”捏造虛假講話視頻等引導公眾輿論。對此,清華大學人工智慧研究院基礎理論研究中心主任朱軍認為,技術是中性的,應加強對應用場景、使用者的監管,防止技術濫用等衍生風險發生,保障其應用可控。

  大賽現場演示的人臉識別破解則展示了人工智慧係統層面風險,它來自深度學習模型本身存在脆弱和易受攻擊的缺陷,通過輸入數據添加擾動,使係統作出錯誤判斷,導致其可靠性難以得到信任。這一漏洞在自動駕駛感知係統同樣存在:正常情況下,自動駕駛係統識別到路障、指示牌、行人等目標後,會立即制動車輛,但對目標物體添加幹擾圖案後,車輛感知係統就會出錯,引發碰撞危險。“與傳統資訊係統不同,人工智慧係統存在高度不確定性,技術漏洞更為復雜。”朱軍建議,在演算法模型外部署安全防護組件,利用演算法安全檢測與防禦加固等措施,抵禦模型竊取、對抗樣本等新型攻擊,提高攻擊門檻與防禦成本,讓攻擊者無利可圖,從而在源頭上實現安全。

  北京航空航太大學軟件開發環境國家重點實驗室副主任劉祥龍則認為,構建科學評測手段是提高人工智慧係統防禦能力的另一項有效解決方案。人工智慧演算法不僅種類眾多,還包含數據集、模型等眾多要素,涉及訓練、測試、驗證等多個環節,這使得人工智慧演算法安全性評測成為一項復雜命題。因此,應配備從測試、分析到加固的完整技術手段,形成標準化測試流程。人工智慧安全評估不僅局限于演算法,未來還應拓展至數據、應用等多個層面,形成全面測評,保障人工智慧全周期安全。

  從長遠看,人工智慧安全問題需要從演算法模型原理上尋找突破口。張鈸提出構建第三代人工智慧,即在第二代人工智慧具有的數據、演算法、算力3個要素基礎上,再融合知識要素,建立新的可解釋、穩健的人工智慧方法。

  築牢人工智慧安全屏障需要不斷在攻防演練中升級對抗能力。大賽聚焦人臉識別、自動駕駛等場景中的典型漏洞及風險,通過考核漏洞發現、挖掘等能力,尋找新型安全需求場景,推動人工智慧安全攻防技術創新,為強化人工智慧治理體係與安全評估能力建設提供支撐。

  作為人工智慧産業發展重要基石,算力基礎設施的加快建設將滿足人工智慧爆發式增長的算力需求。國家工業信息安全發展研究中心日前發布的《人工智慧算力基礎設施安全發展白皮書》指出,安全的算力基礎設施應保護數據模型不被竊取,有效防范惡意攻擊,提供可信任的運作環境,保障人工智慧係統安全穩定。

  但人工智慧算力基礎設施發展仍處于初期階段,專門的安全標準、技術體係、評估規范、監測和檢查手段仍在建設中。為進一步推動人工智慧算力基礎設施安全發展,國家工業信息安全發展研究中心副主任何小龍認為,算力基礎設施與人工智慧的安全問題相互交織,應構築具有針對性的一體化、全鏈路標準體係,實現協同聯防。同時,鼓勵算力基礎設施企業和演算法企業加強合作,推動安全技術工具整合到人工智慧算力基礎設施中,降低企業應用人工智慧成本,形成安全發展良好氛圍。(記者 李芃達)

【糾錯】 【責任編輯:冉曉寧】
      //