

記者從社交平台及電商平台搜索發現的AI去水印服務及工具。製圖 馬莎
針對AI生成內容使用亂象,2025年9月1日《人工智能生成合成內容標識辦法》施行,明確AI生成內容必須添加標識,標誌着我國AI生成內容邁入“持證上崗”的規範化時代。
如今新規落地已過百日,儘管各大平台陸續上線標識功能並配套相應管理措施,但記者調查發現,短視頻、圖文筆記、直播間,仍有許多AI內容未亮明身份,甚至一些原本顯性的違規行為逐漸轉向暗箱操作,深度偽造技術與黑灰産結合愈發緊密……標識制度在執行層面仍面臨重重挑戰。
標識落地顯成效
行業治理邁新階
家住甘肅省蘭州市的王浩(化名)去年8月在社交平台發布了一條“喜提邁巴赫”的AI合成視頻後,多年未&&的“老同學”打來電話祝賀並向其張口借錢。王浩坦言,這條視頻如果晚發一個月,就不會鬧出這樣的笑話。“沒有AI標識,很多人當真了。”
“作品由AI生成”“內容存在AI成分注意甄別”……自去年9月《人工智能生成合成內容標識辦法》正式施行以來,AI生成內容全面進入“持證上崗”的時代。一方面,針對可能導致公眾混淆或者誤認的內容,要求添加顯式標識;另一方面,要求服務提供者在生成合成內容的文件元數據中添加隱式標識,為內容溯源與責任認定提供技術保障。
中國互聯網絡信息中心發布的《生成式人工智能應用發展報告(2025)》顯示,截至2025年6月,我國生成式人工智能用戶規模達5.15億人,較2024年12月增長2.66億人,用戶規模半年翻番。
記者梳理發現,各大網絡平台均已構建起各具特色的AI標識實施機制。抖音、今日頭條、快手等內容平台在發布界面增設“AI生成內容聲明”選項,用戶勾選後將在作品標題下方顯示統一標識。喜馬拉雅等音頻平台也採用了“片頭提示+文字標注”等形式,對AI合成語音內容進行明確標識。
西部一所高校的AI治理團隊2025年四季度做的一項抽樣調研顯示,AI標識政策落地後,用戶對未知來源內容的“質疑意識”提升了近40%。此外,由於隱式標識能快速鎖定內容的生成工具和傳播節點,該團隊參與的一起跨境AI虛假新聞溯源案例中,追責周期從過去的平均72小時縮短至12小時。
甘肅慧聯信息科技發展有限責任公司總經理王雪蓮&&,AI標識政策的實施,破解了AI內容“難識別、難追溯”的行業痛點,在政策引導下,從平台合規到用戶認知,從技術研發到行業自律都呈現出向好的積極態勢。
黑灰産鑽營牟利
“反標識”亂象升級
“但AI偽造仍未根除,技術更高明,手段更隱蔽,標識治理面臨‘道高一尺魔高一丈’的現實挑戰。”王雪蓮説。
“AI偽造爛水果騙取‘僅退款’薅羊毛”“一位明星穿梭8個直播間來回帶貨”……業內人士認為,AI偽造已從“一眼假”逐步實現高擬真段位升級,且背後已滋生分工明確、收益可觀的完整黑灰産鏈條。
記者在各大電商平台和社交媒體上搜索“AI去水印”“無痕除標識”等關鍵詞發現,從幾十元的基礎工具到上千元的定制服務,“明碼標價”的規避標識“生意”形成黑灰産,各類繞過平台檢測的“反標識”技術和服務“隱身術”持續迭代升級。
在某社交平台上,一則“AI生圖變現指南”的評論區裏,一條分享“AI去水印神器”的評論獲得高讚,點進該用戶主頁,就有明碼標價9.9元、19.9元等不同價位的去水印工具。記者私信該用戶詢問商品購買方法時,對方&&要換平台加好友下單,且提醒稱“産品屬性特殊,發貨後不支持退款,若不想使用需自行處理或贈予朋友。”
記者在某電商平台搜索相關産品,一款“萬物皆可去水印”的商品賣家介紹,這款工具能無痕去除98%的AI生成痕跡,尤其是AI視頻的處理。
除不法商家低成本牟利,部分違規者還利用不同平台標識規則差異,進行跨平台“零成本”規避監管。
“由於各平台的AI識別技術水平和標識要求不同,在A平台被要求標注的內容,通過格式轉換後在B平台發布就很有可能繞過檢測。”甘肅省計算中心副主任沈玉琳説。
記者用一款AI軟體生成一張礦泉水瓶損壞的圖片,保存至手機相冊後裁掉AI標識,再將其發布到社交平台時,並未被檢測出AI元素。
沈玉琳認為,“反標識”技術正從單一手段向“多元技術路線與商業模式並行”的完整産業鏈形態升級,催生元數據“深度清零”、格式多輪轉碼、標識“露而不顯”等“升級版”AI倣造亂象。
甘肅政法大學民商經濟法學院副教授盛玉華介紹,AI標識政策落地一百多天以來,主流AI服務已普遍添加顯式標識,溯源能力增強,但處罰標準模糊、技術檢測不足仍制約其成效進一步釋放。
“一方面,《人工智能生成合成內容標識辦法》第十三條僅規定‘依據現有法規處理’,缺乏針對未標識、惡意篡改標識等行為的具體罰則;另一方面,部分平台缺乏隱式標識核驗工具,難以有效識別違規內容。”盛玉華説。
多維協同築防線
破解AI治理難題
受訪專家及業內人士呼籲,AI治理需在“標識可見”的基礎上,進一步築牢“可識別、可追溯、可問責”的縱深防線,從技術創新、責任劃分、協同治理等多維度發力,應對技術演進帶來的監管挑戰。
——完善“不可篡改、全程可溯”技術硬屏障。北京師範大學中國教育與社會發展研究院助理研究員蔣艷雙認為,目前大多數平台監管技術仍存薄弱環節,未來應加快推進AI標識技術的標準化,細化不同平台、不同類型內容的標識技術規範,避免因技術差異導致監管漏洞。
此外,還需進一步強化隱式標識的抗篡改技術升級,確保標識信息在文件格式轉換、二次編輯等操作後仍能有效識別,整合不同AI工具的生成痕跡,提升對各類規避手段的識別精準度。
——厘清“生成、傳播、使用”權責邊界。盛玉華等人建議,應進一步細化《人工智能生成合成內容標識辦法》中的主體責任,明確生成合成內容服務提供者、傳播平台、分發平台等不同主體的具體義務。
同時,強化對黑灰産的處罰力度,對惡意刪除標識、偽造標識、提供規避標識工具、批量篡改標識等行為從重處罰,可探索建立違規主體“黑名單”制度,將多次實施規避標識行為的個人和企業納入黑名單,從利益根源上遏制黑灰産。
——構建 “政府、公眾、平台”治理閉環。蘭州大學信息科學與工程學院教授楊裔建議,需進一步完善舉報與監督機制,鼓勵公眾參與AI內容治理,建立健全跨平台投訴舉報聯動機制,實現違規賬號信息共享,避免違規主體“換平台重來”。
此外,還需持續強化公眾AI素養科普,普及AI內容標識識別方法、常見造假手段及維權路徑,引導公眾養成“看標識、辨真偽”的AI使用習慣。
“多管齊下、層層設防,各方形成合力織就一張人人參與的治理大網,引導AI技術告別野蠻生長的浮躁,真正成為賦能千行百業的好工具、好幫手。”蔣艷雙説。(記者 姜偉超 馬莎)




