當“李逵”遇上“AI李鬼”——如何在創新與規制之間尋找平衡-新華網
新華網 > > 正文
2025 11/17 10:56:49
來源:新華每日電訊

當“李逵”遇上“AI李鬼”——如何在創新與規制之間尋找平衡

字體:

  同一時間,同一個人,身着不同服裝,“現身”不同的直播間推廣産品,動作神態與本人高度相似。這是媒體11月上旬報道演員溫崢嶸遭遇“AI盜播”的場景。“如果你是溫崢嶸,那我是誰?”她前去質問,卻被直播賬號拉黑。這個案例讓公眾意識到:人工智能也可能成為造假的“放大器”。

  事實上,這並非孤例。不久前,央視主持人李梓萌的AI形象被用於開展與事實不符的營銷宣傳,北京市場監管部門就此開出了全國首張“AI虛假廣告案”罰單。這起“首案”的意義,不在於罰款數字,而在於揭開了一個快速擴張的灰色地帶——創新與濫用之間的界線,需要被重新劃定。

  從“李逵打李鬼”到“眼見不為實”,AI在釋放巨大創新紅利的同時,也讓“信任”這一社會基石遭遇前所未有的考驗。法律、監管與平台規則,都必須回答同一個問題:當“真偽”界限被算法模糊,如何為真實負責?

  本期議事廳,新華每日電訊智庫研究與傳播中心邀請來自法學界與平台方的嘉賓,共同探討“AI換臉廣告”的法律邊界與治理邏輯,試圖在多方視角的交鋒中,尋找創新與規制、效率與安全之間的平衡之道。

  【本期嘉賓】

  張凌寒 中國政法大學數據法治研究院教授

  趙精武 北京航空航天大學法學院副教授

  李 旻 上海漢盛律師事務所高級合夥人  

  盧寧寧 化名,短視頻平台員工

  【主持人】

  薛 園 新華每日電訊記者

  強制標識為何難阻“AI李鬼”?

  主持人:這次AI盜播事件,公眾最大的困惑是:國家互聯網信息辦公室、工業和信息化部、公安部、國家廣播電視總局聯合發布的《人工智能生成合成內容標識辦法》9月1日起即實施,明確要求AI生成內容必須“亮明身份”。但在現實中,“AI李鬼”的現象為何仍時有出現?

  趙精武:強制標識制度確實被寄予了很高的期望,但它並不是“萬能鑰匙”。它只是AI治理體系中的一個環節。大部分國內合規的AI服務商其實都在執行標識要求,真正的問題在於那些“繞路者”——他們利用境外生成工具,或在私下自行搭建系統生成內容,從而逃避平台監管,不受標識機制約束。

  所以,標識制度在本質上解決的是“可識別的合規源頭”,卻難以擋住“不可追蹤的灰色源頭”。如果沒有全鏈條的治理,僅靠顯式或隱式標識,很難真正構築信任屏障。

  主持人:趙教授點出了標識制度的“規避”難題。李律師,您長期處理一線案件,從法律執行角度看,標識制度落地難,是否還有其他原因?

  李旻:原因主要有三個方面。首先是AI技術的特性讓監管和溯源難度指數級上升。不法商家花幾十塊錢、幾分鐘就能生成“名人帶貨”視頻,再用多個賬號在不同平台反復發布。它不僅傳播快,還能通過鏡像翻轉、畫中畫遮擋等方式,規避標識要求。

  第二是平台自身監管的技術和機制存在局限。AI倣冒的形式每天都在變化。現在大多數平台都是事後處理——等用戶投訴、等算法匹配,再下架內容。這個速度遠遠追不上AI造假的速度。

  最後一個,也是目前最棘手的:維權成本太高,違法成本太低。被倣冒的知名人士要請律師、公證、鑒定,維權周期長、花費高,而判賠金額往往不夠支付成本。侵權者換個號就能“滿血復活”,這對違法者幾乎沒有威懾力。

  主持人:技術規避、平台滯後、維權成本高。盧寧寧女士,從平台方來看,是否真的像外界認知的那樣“被動”和“滯後”?

  盧寧寧:這不僅是技術挑戰,更是信任危機。濫用AI技術能力惡意博取流量以及營銷牟利行為,一直是我們平台抵制的不良之風。

  平台持續強化顯性與隱性AI水印的識別檢測體系,研發人臉深度偽造識別模型,並對倣冒類作品進行聚類分析與算法封堵。今年以來,我所在的平台已累計清理涉濫用AI技術的倣冒名人視頻十萬餘條,處置違規賬號1400多個。我們清楚,AI的挑戰必須用AI去應對。平台治理的目標不只是“封掉”違規視頻,而是讓技術防線比造假速度更快一步。

  “避風港”還是“紅旗”:平台責任的邊界

  主持人:剛才我們提到,AI倣冒帶來的問題,已經從“能不能發現”走向“該誰負責”。僅一家平台就攔截了十萬餘條違規視頻,這個數字不小,但公眾依然感到——AI造假似乎“野火燒不盡”。這背後的爭議非常現實:平台到底只需要秉持“避風港原則”在接到舉報後下架內容,完成事後補救,還是堅持“紅旗原則”,即在風險出現之前,就利用技術提前識別、提前阻斷?兩種角色,對平台的責任劃線完全不同,也直接影響治理效果。

  李旻:“通知—刪除”機制是法律規定的最低標準,它的核心邏輯是被動響應。但隨着AI識別和溯源技術的成熟,“技術不能”的理由越來越難成立。

  如果平台在技術上已經能夠識別、篩查,卻沒有採取必要手段,就可能被認定為未盡到“合理注意義務”。尤其是當平台不僅僅是存儲空間,而是參與算法推薦、內容分發的時候,它必須承擔更多義務。

  在我看來,平台的責任不應只停留在“等別人提醒”,而是要前置管理、主動防範——從被動的“避風港”走向積極的“安全舵手”。

  主持人:我們注意到,在實踐中判斷侵權並不總是非黑即白。比如,如果AI生成的不是溫崢嶸本人,而是一個她的“酷似者”,平台又該如何界定?

  李旻:這個問題確實很現實。我的觀點是——只要具備“可識別性”,就可能構成侵權。

  民法典判斷肖像權的關鍵不在於是否“復刻”了本人,而在於能否指向某個特定自然人。所謂“可識別性”,不僅包括五官相似,還包括聲紋、體態、粧造、場景風格等綜合特徵。只要這些特徵組合在一起,能讓公眾誤以為是某個人,那就已經跨過了侵權的紅線。換句話説,不是“長得像”才算,而是讓人“以為你是”,就算。

  主持人:李律師強調了“前置義務”。趙教授長期研究數字治理,請問這一問題能否從技術上根治?

  趙精武:數字水印是把“真相寫進比特流”的可行路徑。問題是,有些平台總以“技術難、成本高”為由拖延落實,這和早年一些網絡平台面對違法信息審核時的態度如出一轍。從法律角度看,標識辦法已明確平台的標識義務。未來,監管完全可以通過立法或行業標準,強制關鍵平台在生成環節嵌入可追溯標識。

  張凌寒:我同意。內容生成環節的“可追溯”是關鍵。在高風險場景,必須以強制性標準明確“應當做到”的底線。治理要講技術現實,也要講合規結果。

  主持人:這也意味着平台的責任更重了——要在真假難辨之間判斷“誤認”的風險。平台在治理中,是否也會處理這類“酷似者”問題?

  盧寧寧:這類灰區是治理中最棘手的部分。我們的做法是:以場景和意圖為判斷標準。如果AI生成內容帶有誤導性,比如假冒名人推銷商品,或以虛假身份帶貨,我們會納入AI濫用治理範疇處理。

  與此同時,我們發現另一種類似問題——“虛假人設”。一些賬號包裝成“情感導師”“教育專家”,通過製造焦慮來帶貨賣課。這其實與“酷似名人”的問題類似,都是利用虛假身份攫取信任。我們採用“AI審核+人工複審”的雙重機制,對此類賬號分級處罰,多次違規的直接封禁。在平台治理中,我們希望把重點放在“誤導性”而非“相似性”上,讓邊界既有彈性,也有底線。

  主持人:張凌寒教授,您長期研究治理體系,您認為在“避風港”和“紅旗”之間,是否存在一個兼顧創新與責任的平衡點?

  張凌寒:我不贊成把平台責任問題理解成“要麼放任、要麼封殺”的二選一。AI治理更合理的方向是“包容審慎、分類分級”。

  對於已經造成明顯社會危害、且技術上可識別的高風險應用——比如無標識的名人倣冒帶貨——必須明確紅線並嚴格執行,包括顯著標識義務、可追溯機制、誤導禁止、跨平台聯合懲戒。而對低風險、公共利益導向的創新場景,則應當動態評估、滾動調整。

  我常説一句話:“以可控換可用”——通過可驗證的技術手段與可執行的制度安排,換取有益創新的自由。法律的目標不是讓技術止步,而是讓創新行穩致遠。

  從“九龍治水”到“協同共治”

  主持人:張教授,“風險分級”的思路確實具有可操作性。但現實中還有一個問題——像這次AI造假事件,其實同時涉及廣告監管、內容管理,以及對涉嫌欺詐行為的查處。市場監管部門管廣告,網信部門管內容,公安部門負責處理涉嫌詐騙的線索。我們現在這種分散的管理格局,在應對這類新型問題時,會不會遇到挑戰?

  張凌寒:是的,這種分散格局確實會産生執法空隙與責任推諉。解決思路不在於簡單合併機構,而在於把系統性治理落到機制上。

  短期看,要有高效的跨部門協調機制與執法標準互認。比如網信管內容生成、市場監管管廣告經營者責任、公安針對詐騙鏈條,要形成閉環與聯動處置。長期看,則必須通過更高位階的人工智能立法,明確“誰主責、何時介入、如何銜接”的總則性規範,補齊碎片化與缺乏統籌的制度短板。

  主持人:在國家層面的人工智能法規&&之前,我們看到北京、上海等地在積極推動地方立法。李律師,您如何看待“地方先行”?

  李旻:地方立法完全可以成為國家AI治理的“壓力測試場”。北京、上海、深圳都在探索AI管理條例,比如建立AI産品清單、審查機制等。這些實踐能讓國家立法更具操作性,避免停留在原則層面。地方立法先行,可以及時回應風險,也能為國家立法積累樣本,降低制度設計的試錯成本。

  張凌寒:我支持地方“先行先試”。地方試點可以把真實問題“暴露出來”,為中央層面的頂層設計提供可驗證的樣本。關鍵是把反饋鏈條打通:地方明確場景、評估風險,中央在此基礎上做比例原則審查,提升規則的通用性。

  主持人:“共治”除了部門協同,是否也包括社會參與?當公眾面對真假難辨的AI內容時,他們是被動的“受害者”,還是積極的“共治者”?

  趙精武:“AI識讀力”不僅是識別能力,更是一種理性使用AI的社會能力。我們需要讓公眾知道,AI生成內容本身不是天然有害,有害的是對這一技術的濫用。比如AI換臉用於自娛自樂沒問題,但用來虛假帶貨就觸及了違法邊界。因此,AI識讀教育有必要納入學校教育體系,而且也需要通過媒體傳播持續向公眾普及。

  張凌寒:這是一個很好的提煉。標識制度是“他律”,識讀力是“自律”。教育與媒體傳播應當同步發力。同時,倫理機制在制度未完善時也要發揮“先導約束”。例如“AI復活逝者”,取得近親屬明示同意是最低標準;未經同意的“復活”,涉及人格尊嚴,則不應以“技術可能”替代“正當性”。

  主持人:當然,這種“協同共治”也離不開平台。平台在整個治理體系中扮演什麼角色?

  盧寧寧:我們認為“治理”不是單向管理,而是監管部門、平台、用戶和社會的共治。我們正在探索如何在用戶端強化“AI識別提示”,讓公眾在面對可能的AI生成內容時能更容易做出判斷。未來平台會繼續用更高的標準、更精準的技術、更開放的態度,切斷“有害信息的利益鏈條”,守護網絡空間的真實與清朗。

  主持人:感謝四位嘉賓的精彩分享。今天這場討論讓我們再次認識到,AI技術疊浪前行,法律、倫理與監管也應及時有效跟進,這確實給治理帶來現實挑戰。

  當真實需要被證明,信任本身就已成為社會的成本。未來的AI治理,必須在一張有機的網絡中運轉——法律給出方向,平台承擔責任,技術守住底線,公眾學會識別與共治。

  AI越來越聰明的時代,更應是制度有溫度,技術有邊界,公眾有判斷的時代。

【糾錯】 【責任編輯:薛濤】