莫讓AI換臉技術淪為詐騙的道具-新華網
新華網 > > 正文
2023 05/25 08:41:50
來源:北京青年報

莫讓AI換臉技術淪為詐騙的道具

字體:

  今年4月20日,福州市某知名企業法定代表人郭先生意外接到一位“至交好友”的視頻通話信息。聊天中,“至交好友”告訴郭先生,他的朋友在外地投標,需要430萬元保證金,且需要對公賬戶過賬,所以想借用其公司的賬戶走一下賬。由於郭先生通過視頻確認了對方的面孔和聲音,便毫無懷疑地把430萬元分兩筆轉賬過去。事後,郭先生電話&&好友,才發現對方通過智能AI技術手段,佯裝成好友對自己實施了詐騙。慶幸的是,在福州和包頭警方的聯動下,郭先生追回了被騙的資金336萬元。

  從警方披露的案情看,這種詐騙伎倆並沒有多少創新,甚至可以説是對老套路的複製。然而,由於此種詐騙伎倆運用了AI換臉技術,詐騙分子更容易成功冒充他人。在上述案例中,當事人郭先生之所以不假思索地給冒充成“至交好友”的詐騙分子轉賬,根本原因就在於後者偽裝的面孔太逼真,讓郭先生對其深信不疑。

  AI換臉,是指通過AI人工智能技術,把別人的臉換成自己的臉。AI換臉技術在初期多用於各種娛樂場景,比如歌迷把自己的臉換成歌星的臉,借此“過把歌星癮”。不過,隨着AI換臉技術的迭代更替,換臉效果愈發逼真,一些“空手套白狼”的不法之徒也看到了斂財商機,致使AI換臉技術淪為詐騙的道具。

  相比於普通的詐騙手法,借助AI換臉技術實施的詐騙伎倆,具有非接觸性、能精準鎖定受害對象等特點,隱蔽性強,也最容易得逞。同時,AI換臉技術運用簡單,可複製性強,違法成本低,更是給受害者識別真假帶來了難度,令人防不勝防。因此,如何不讓AI換臉技術淪為詐騙犯罪的道具,需要創新治理手段。

  不讓AI換臉技術淪為詐騙道具,須對這種詐騙伎倆做到露頭即打。相關部門要加強跨區域、跨部門的協調聯動,開展聯合打擊防範。在上述案例中,福州、包頭兩地警方聯手行動,借助銀行配合,成功為受害者止損336萬元,充分證明了跨區域、跨部門聯動協作打擊防範涉AI換臉技術詐騙犯罪的重要性,值得各地各部門各行業借鑒。

  打擊防範涉AI換臉技術詐騙犯罪,治本之策在於以良法促善治。雖然目前我國已&&了《網絡音視頻信息服務管理規定》《互聯網信息服務深度合成管理規定》等法規,對AI換臉技術運用有一定的約束力,但這些法規層級較低且缺乏系統性,難以適應打擊防範涉AI換臉技術詐騙的實際需要。相關部門應堅持“急在治標”與“重在治本”並舉的導向,在及時完善現有法律規範的同時,着眼長遠地制定出統一的上位法,從而用嚴密完善的法律,將AI換臉技術的運用規範在法制軌道上,不再讓其淪為詐騙犯罪的道具。

  需要注意的是,涉AI換臉技術的詐騙伎倆能夠輕易得逞,一個重要原因在於詐騙分子掌握了受害者好友的人臉、聲音等個人信息。對此,公眾要增強保護個人人臉、聲音等敏感信息的意識,充分認識到洩露此類個人信息的潛在風險;監管部門亦應強化監管,以法律責任的嚴肅追究,倒逼採集人臉、聲音等個人信息的商家或相關機構建立起技術防範與依法管理相得益彰的個人信息安全格局,讓詐騙分子利用AI換臉技術實施詐騙不再具備條件。(萬周)

【糾錯】 【責任編輯:冉曉寧】