新華網北京9月2日電(曹玥)2025年9月1日零時,國家網信辦、工業和信息化部、公安部、國家廣播電視總局聯合製定的《人工智能生成合成內容標識辦法》(以下簡稱《標識辦法》)正式生效,“標識辦法”提出強制添加顯式和隱式標識等規範要求,即用AI生成的每一段文字、每一張圖片、每一條音頻、視頻,都必須強制亮明“數字身份證”。
新華網整理髮現,在9月1日前,包括騰訊、抖音、快手、B站在內的多個&&分別針對上述《標識辦法》&&了細化規則,其中抖音&&發布公告進一步規範&&上的AI內容創作與傳播,並上線了兩項功能,一是,內容標識功能,協助創作者為AI內容添加提示標識;二是,AI內容元數據標識讀寫功能,可識別並寫入AI內容的元數據信息,為內容溯源提供技術支撐。
AI生成內容生態鏈進入規範化管理階段
人工智能技術正重塑信息生産和傳播方式。中國互聯網絡信息中心(CNNIC)發布的《中國互聯網絡發展狀況統計報告》顯示,2024年,我國人工智能産業規模已突破7000億元,連續多年保持20%以上的增長率。
技術快速普及的同時帶來新的內容風險。人工智能技術被用於製造虛假新聞、實施網絡詐騙的案例逐年增長。中國信通院發布的《人工智能治理藍皮書(2024年)》中指出,隨着人工智能技術通用泛化的水平提升,內容安全管理將面臨着重大挑戰。
政策的核心在於雙重標識要求。顯式標識需讓普通用戶“一眼可見”,如在AI生成文章的開頭或結尾添加文字説明,在音視頻內容中加入語音提示或特殊圖標。隱式標識則需在文件元數據中嵌入“隱藏信息”,包括內容屬性、服務商信息及唯一識別編碼。
當前我國人工智能領域正在飛速發展,相應的安全標準和法律準則在不斷完善當中,《標識辦法》承接了《網絡安全法》《數據安全法》《個人信息保護法》構建的基礎法律框架,並與2023年8月實施的《生成式人工智能服務管理暫行辦法》以及2023年10月發布的《生成式人工智能服務安全基本要求》共同完善了我國內容協同治理的體系。
浙江大學計算機科學與技術學院院長任奎教授是《生成式人工智能服務安全基本要求》的起草參與者之一,他對新華網&&,《標識辦法》的正式實施有三個層面上的重大意義:一是,首次將生成服務提供者、內容傳播&&、終端用戶納入統一治理框架,以內容的顯式標識和隱式標識為抓手,將生成式人工智能服務的各利益方串接在一塊。同時也與《互聯網信息服務深度合成管理規定》《生成式人工智能服務管理暫行辦法》等形成制度遞進,明確責任邊界。二是,有助於推動AIGC行業的規範化發展,倒逼企業建立合規體系,通過標識這一技術合規前置的制度設計,促使企業將倫理考量融入技術研發全流程;同時通過建立可信的內容標識體系,提高內容使用的透明度,重塑公眾對AIGC技術的信任基礎。三是,有效的提高了我國在人工智能安全與治理領域的話語權。《標識辦法》和《標識方法》是全球首個由政府主導,同時通過技術標準化進行強制性實施的治理模式,為全球內容治理提供了範本。
雙重標識體系:顯式可感知,隱式嵌元數據
從新規實施最大的特點來看,《標識辦法》的核心是構建了“顯式+隱式”雙重標識體系,對不同類型的AI生成內容提出明確標注要求,確保用戶與監管方能夠清晰識別內容的AI屬性。
在顯式標識層面,要求以用戶可直接感知的方式標注:文本內容需在開頭、結尾或關鍵位置標注“人工智能生成”或“AI生成”,字體需清晰可辨,不得刻意縮小或模糊。
而隱式標識更側重於技術層面的追溯,要求在AI生成內容的文件內部嵌入元數據,且字段名稱必須包含“AIGC”標識符號。元數據需涵蓋AI生成確認狀態、生成服務提供方信息、內容傳播&&名稱、唯一編號,以及數字簽名或哈希校驗值等關鍵信息,為內容溯源與責任認定提供技術支撐。
對於文本內容,要求在起始、末尾或中間適當位置添加文字提示或通用符號提示;對音頻內容,要求在起始、末尾或中間添加語音提示或音頻節奏提示;對視頻和圖片,則要求在適當位置添加顯著提示標識。
任奎教授認為,“嵌入的標識有不同的功能和類型。例如,對於某個生成內容,可以只是簡單的標識出它們是自然真實存在的還是由AI模型生成的。此外,標識還可以標記生成這些內容的具體模型。更進一步地説,標識還可以同時標記用戶和模型,合成內容標識在功能性上也可以進一步劃分,以滿足監管的不同要求。”
在明確AI生成內容標識體系的同時,《標識辦法》着重落腳在適當地鼓勵用AI進行原創性的內容創作。公安部第三研究所副所長金波發文&&,“《標識辦法》體現出在數據內容創作與打擊濫用間尋求平衡的考量,也表明在立法思路上對當前蓬勃發展的人工智能産業整體上的鼓勵傾向,可理解為早期確立的&&避風港原則在新時代背景下的創新性發展。”
明確主體責任邊界,但監管仍面臨挑戰
《標識辦法》的另一重意義在於在法律層面上,對不同主體設置了不同義務。服務提供者有義務確保其生成的內容符合標識要求,並在生成內容時主動添加標識。
傳播&&需要核驗文件元數據中是否含有隱式標識,對於含有隱式標識的,應當採取適當方式在發布內容周邊添加顯著的提示標識。
應用分發&&則需在應用程序上架或上線審核時,核驗服務提供者是否按要求提供生成合成內容標識功能。
《標識辦法》的實施對普通人而言,通過顯性標識對AIGC進行鑒別可以更加清晰地認識接收到的信息是否可信。但從落地實踐來看,《標識辦法》並不能徹底地杜絕AI生成謠言、假消息的産生。
例如,對於顯性標識,用戶可以刪除相關文字及標識圖形來去除;對於隱性標識,用戶也可以通過轉碼等方式進行一定程度的規避。也就是説,基於標識的識別無法對於惡意用戶發布的內容進行精準鑒別。
“AI生成也只是謠言等産生的工具,沒有AI的時候也存在同樣問題。”中倫文德律師事務所上海辦公室高級合夥人王祺律師對新華網&&,AI生成內容應用的風險是無法完全規避,“對於惡意使用者,即使沒有AI也可以通過雇傭人來批量産生造謠內容。”
從權、責、利層面來看,王祺還指出,內容發布&&或將承擔更多的責任,“從盡量平衡生成式人工智能的收益與風險的角度,除了要求人工智能應用服務提供者盡到更加嚴格的注意義務外,建議監管使內容發布&&承擔更多的責任。”
例如,如果AI生成內容只有在內容發布&&算法的助推下才會吸引更多人的關注,而目前算法難以真正對於非正常流量增長的謠言等進行及時控制。“內容生成&&欲思算法推送流量之利,則也應盡相應的內容監管之義務。這也是權責相適應的價值要求。”王祺對新華網説。
鋻於《標識辦法》在落地實踐中所面臨的挑戰,從技術層面,任奎教授建議,大力發展安全保證的內容隱式標識技術。“利用內容隱式標識的魯棒性與難以去除能力,配合顯式標識和元數據隱式標識共同維護基於標識的內容治理體系。”
最後,標識是AI生成內容治理邁出的關鍵一步,但它只是多層次防控體系的一部分。要真正規避風險,還需要細化法律法規、建立行業自律標準、加大執法力度和國際合作。
“AI生成內容跨國傳播時,數據主權歸屬與執法管轄權爭議頻發。如何在全球化背景下實現跨境的AIGC執法也是面臨的挑戰之一。”任奎教授&&,“進一步推動技術標識協同,建立跨境執法互助機制。與‘一帶一路’國家、金磚國家聯合構建互認標識體系,並推動AI生成內容快速響應機制,支撐跨境執法是未來內容治理的重點方向之一。