構築AI安全護欄
➤人臉、聲音等自然人的生物信息具有高度識別性和強關聯性,這些信息一旦“丟失”,將可能衝擊網絡空間的公共秩序,進而影響社會秩序穩定
➤針對新興技術的監管要保持戰略定力和應有自信,讓技術先行,並在審慎包容中不斷探明底線,在底線之上給足新技術發展空間
➤可以“以AI制AI”,將AI技術應用於犯罪識別、預警、對抗中,研發“反換臉”等檢測技術,利用人工智能技術提高辦案能力
文 |《瞭望》新聞周刊記者 於雪 劉淏煜
眼見未必為實。長相、聲音都是熟人,實則卻是“AI換臉”詐騙;“偷來的臉”被製成不雅視頻販賣……近期,類似這種使用“AI換臉”技術進行詐騙、誹謗、敲詐勒索等新型違法行為日漸增多,詐騙手段愈發多樣。
公安部8月10日發布的數據顯示,2020年以來,公安機關依託“凈網”專項行動組織專項會戰,嚴打洩露身份證照片等圖像信息的犯罪源頭,破獲“AI換臉”案件79起,抓獲犯罪嫌疑人515名,該類犯罪發生勢頭得到有效遏制。
濫用“AI換臉”技術究竟潛藏哪些風險?特別是在新一輪科技革命如火如荼的當下,如何監管治理並為其劃定合理使用的邊界?諸多問題考驗着治理者的智慧。
立法能打敗“魔法”嗎
“只要是能看到的臉都能換”“手機可操作”“30秒內出結果”……一段時間以來,能夠定制換臉視頻的AI軟體利用短視頻&&、社交賬號等相對隱秘的渠道進行資源共享,少則幾百元、多則兩三千元即可實現單圖換臉、實時換臉、全自動換臉等功能。
有聞智庫創始人陽淼介紹,所謂“AI換臉”技術,是深度合成技術的一種,在數字營銷、在線教育、影視製作、資料修復、智慧醫療等領域具有豐富應用場景。
中國社科院哲學所科技哲學研究室主任、研究員段偉文介紹,“AI換臉”主要應用自動編碼解碼和生成對抗網絡兩大技術,可完成重現、替換、編輯、合成等功能。
所謂自動編碼,即將一個人的圖像特徵抓取出來,並用一串數字代表,解碼則是將數字還原成圖像。
生成對抗網絡技術包括生成和辨別兩部分,它們是兩個互相博弈的神經網絡,生成網絡更像是“造假者”,盡力讓對方相信自己生成的是真樣本;辨別網絡則更像“檢測者”,盡力區分哪個是假樣本。
“AI換臉”軟體前期通過大量數據訓練讓自動編碼解碼和生成對抗網絡這兩大技術更為精準、成熟、難以辨別,而後期使用者提供的數據越多,效果越接近真實。
“AI換臉”技術的“平民化”,讓其潛藏的法律風險更多進入國人視線。多位受訪專家&&,即便未構成刑事犯罪,擅自使用他人人臉、聲音等敏感生物信息,也已涉嫌侵犯公民的肖像權、隱私權等人格權。
中國政法大學傳播法研究中心副主任朱巍&&,換臉視頻本身是對公民肖像權的濫用,如果剪輯過程中有醜化或貶損的情形導致被換臉人的社會評價降低,則涉嫌侵犯名譽權。且無論該行為是否被用於營利目的,均構成侵權。
專家分析,就利用“AI換臉”技術實施色情、詐騙等違法犯罪行為而言,當前在法律責任的認定上並不困難,難點主要在於追責。
浙江省公共政策研究院研究員高艷東介紹,利用“AI換臉”技術進行的違法犯罪行為,侵權主體往往難以直接鎖定、侵權行為複雜多樣、侵權後果難以量化,既需要在司法實踐中給出更細化的解釋,也需要借助更多典型案例,以不斷探索完善相關案件的裁判理念和規則。
中國社會科學院大學互聯網法治研究中心執行主任劉曉春&&,隨着“AI換臉”技術快速迭代,侵權易、維權難的矛盾將更為突出。比如如何證明侵權事實的存在,可能需要對處理方式、信息獲取、信息處理加工等情況進行舉證,僅憑公民自身力量有限,即便是司法機關取證,也會耗費大量時間精力。“對被侵權人來説,維權成本高、專業性強、舉證困難的情況將非常棘手。”
“裝好剎車再上路”
在立法和“AI換臉”“魔法”的對決中,AI技術治理成為一道必答題。
今年8月施行的《生成式人工智能服務管理暫行辦法》明確提出,國家堅持發展和安全並重、促進創新和依法治理相結合的原則,採取有效措施鼓勵生成式人工智能創新發展,對生成式人工智能服務實行包容審慎和分類分級監管。
段偉文&&,當前AI技術的發展臨近第一個“黃金交叉點”,即利用AI技術生成的內容已極大限度趨近真實,僅靠人類的經驗判斷和五感很難分辨真偽,而未來借助技術生成的內容在精準度、邏輯性等方面甚至能夠超越人類創造的內容,其數量也將指數級增長,隨之將會迎來第二個“黃金交叉點”。“也就是説,真內容將會被假內容淹沒,給人類的創造性和判斷力帶來巨大挑戰。”段偉文説。
在段偉文看來,技術爆炸式的發展將衝擊人們的既有共識,並將在糾結矛盾中不斷形成新共識。一方面,人們擔心技術終將失控;另一方面,每個人也不得不使用新技術,享受其帶來的便利。因此,如何未雨綢繆,搭建好基礎性的制度框架,實時調整治理思路,豐富治理手段格外重要。
在高艷東看來,“一刀切”限制“AI換臉”技術並不可取,而是要規範其使用方式,避免技術被濫用。在他看來,目前人類已進入“弱人工智能時代”,未來人類必將和AI共存共生,如何利用技術更好為人類服務是行業發展的核心目標。“我們需要拋棄零風險的理想主義,務實地在做好底線監管之時,積極擁抱新技術。”
朱巍&&,針對新興技術的監管要保持戰略定力和自信,讓技術先行,並在審慎包容中不斷探明底線,在底線之上給足新技術發展空間。
中國互聯網協會法工委副秘書長胡鋼認為,當前“AI換臉”技術處於初生階段,屬於“低階人工智能”,在現有由網絡安全法、數據安全法、個人信息保護法等構成的法律框架內總體可管可控,但需進一步厘清技術服務提供方、&&方、侵權責任人等主體的權責範圍和行為邊界。
專家提示,今年1月正式施行的《互聯網信息服務深度合成管理規定》中最值得注意的,是要求“深度合成服務提供者和技術支持者提供人臉、人聲等生物識別信息編輯功能的,應當提示深度合成服務使用者依法告知被編輯者,並取得其單獨同意。”
同時,針對可能導致公眾混淆或者誤認的,如合成人聲、倣聲等語音生成或者顯著改變個人身份特徵的編輯服務,應當在生成或者編輯的信息內容的合理位置、區域進行顯著標識,向公眾提示深度合成情況。
胡鋼解釋説,這主要是強化技術服務提供方“強制標注”的責任,對所有使用“AI換臉”技術的影像、聲音強制標注可識別標識,以便發生侵權行為時,可溯源、可問責。
進一步強化網絡&&的審核監管責任也是應有之義。比如如何提前預警、及時核查,特別是對擁有超大用戶規模、超廣業務種類、超高經濟體量、超強限制能力的超級&&,推動其通過技術迭代提高對內容産品的監管能力,將智能風險預警和實時動態監管相結合,搭建“穿透式”監管體系,仍需壓實完善。
受訪專家&&,多部新規的&&,為AI技術的使用劃清了“紅線”和“底線”,但在明確基本原則和框架的基礎上,針對不同行業、不同場景,如何分類分級管理,有待進一步細化。
胡鋼建議可採用沙盒監管模式,即先劃出特定的時空區域、政策空間,在可控範圍內實行容錯糾錯機制,有控制地發展AI技術。同時強化監管透明度,倒逼企業事先向利益相關者公開技術信息、管理信息和社會責任信息等,以便其作出更加合理的決策。
此外,專家建議“以AI制AI”,即將AI技術應用於犯罪識別、預警、對抗中,研發“反換臉”等檢測技術,利用人工智能技術提高辦案能力。
胡鋼提示,我國在AI技術治理的管理思路、法律體系的建立和完善等方面走在世界前列,有力推動了新型網絡空間治理的法治化進程。但技術治理亟需形成全球共識,否則任何一個國家無底線的急功冒進,都可能給全人類帶來難以逆轉的災難。
王鵬圖 / 本刊
“人機對齊”能防住技術失控嗎
如果拉長歷史的視線回顧歷次技術革命,其均面對一個共同的詰問:人性的韁繩能否駕馭技術這頭猛獸?就“AI換臉”技術而言,討論厘清其倫理等爭議已不容回避。
段偉文認為,當前生成式人工智能技術正在實現從“換臉”到“造臉”的技術飛躍,儘管尚未廣泛應用,但也暴露出一些值得警惕的問題:如果訓練的AI做的事情與真實目的不符怎麼辦?眼見未必為實,會否引發潛在的信任危機和倫理問題?
包括段偉文在內的多位受訪專家均&&,相比於侵權、詐騙等技術濫用帶來的危害,更應重視其對網絡社會秩序、現實社會秩序、國家安全乃至社會信任體系、倫理道德規則等帶來的危害與衝擊。
北京市社會科學院法治研究所副所長、副研究員王潔介紹,人臉、聲音等自然人的生物信息具有高度識別性和強關聯性,這些信息一旦“丟失”,將可能衝擊網絡空間的公共秩序,進而影響社會秩序穩定。
清華大學人工智能國際治理研究院副院長梁正&&,深度合成技術正在不斷模糊虛實邊界,現實世界的一些原有秩序、默認情形和公認原則等,在被平移的同時也可能會被顛覆。
北京執象科技副總經理、資深架構師李新&&,儘管“AI換臉”技術只是人工智能領域一個很小的應用分支,但其可能顛覆人類社會千百年來形成的社會信任體系。
段偉文提醒要特別注意在技術研發過程中的“人機對齊”,也就是讓機器生産的內容,不僅能夠實現人類設定的目標,而且在價值取向上符合社會規範和公序良俗。
他建議,一方面要對機器採取強化學習的方式,借助人工校正,改進機器生成內容在價值觀上的偏差和矛盾;另一方面,人類也要警惕過度借助智能技術帶來的智力退化,比如為避免機器輕鬆通過“圖靈測試”,人類需要不斷挑戰認知極限,在與機器的博弈中不斷進步。
美國物理學家邁克斯·泰格馬克在其所著的《生命3.0》一書中提出,智能機器是人類後裔,如同我們對孩童的教育一樣,必須從小進行價值教育,使其確立正確的價值觀,而人工智能技術正處於孩童期,必須盡快抓住價值教育的窗口,協同科技、人文等各領域的力量提早布局。
人類發展的歷史就是不斷利用新技術解放生産力、提高生産力的歷史。技術進步必然帶來新的變化,在種種不確定性的背後,有一件事是確定的:技術進步是依靠人類學習的結果,最終也要為人類服務。
從這個意義上,人類應該思考的不是人工智能技術的未來,而是如何為其搭建一個合適的框架,使得人類面對變化,能夠不懼、不憂、不怠,擁有更加確定的美好未來。□