剎住AI“盜聲”的歪風-新華網
新華網 > 時政 > 正文
2025 08/27 08:57:30
來源:新華每日電訊

剎住AI“盜聲”的歪風

字體:

  據央視新聞報道,某社交&&上,有博主利用AI倣冒奧運冠軍全紅嬋的聲音賣土雞蛋;孫穎莎、王楚欽的聲音也被“克隆”,用來給“嬋寶家土雞蛋”高調帶貨……評論區顯示,不少網友誤以為這就是奧運冠軍本人,紛紛下單購買。此外,還有博主“克隆”演員靳東等的聲音,進行24小時語音直播。

  隨着AI技術的普及,“盜聲”正成為越來越嚴重的問題。與普通網民相比,名人或者配音演員的音源豐富,比較容易獲取,是聲音侵權的重災區。對普通人來説,AI克隆聲音如果被詐騙分子利用,危害將非常嚴重。聲音侵權行為的氾濫,不僅會對個人生活造成影響,還可能侵蝕社會信任的基礎。因此,必須採取切實措施打擊此類行為,維護安全、清朗的網絡空間。

  民法典第1023條明確了對自然人聲音的保護。任何自然人的聲音未經許可使用或授權他人使用權利人的聲音均屬侵權。但是,由於取證困難且過程繁瑣,一些受害者往往會出於無奈放棄維權。侵權者也正是鑽了這個空子,更加肆無忌憚地使用AI“盜聲”。

  剎住“盜聲”的歪風,不能簡單地對侵權行為一禁了之。《生成式人工智能服務管理暫行辦法》明確規定,提供和使用生成式人工智能服務,不得侵害他人肖像權、名譽權、榮譽權、隱私權和個人信息權益。從技術層面,“聲音克隆”軟體在開源過程中,需要對聲音的使用時長、應用場景等做具體限制,從源頭堵住侵權行為。&&層面,要切實履行監管責任,建立健全審核和侵權舉報機制,及時發現並攔截相關內容。

  即將於9月1日施行的《人工智能生成合成內容標識辦法》,明確要求AI服務提供者在生成內容中添加標識,防範利用人工智能技術製作傳播虛假信息等風險行為,推動人工智能健康有序發展。公眾自身也要增強保護意識,一旦發現自己的聲音被盜用,要勇於拿起法律武器維護權益。

  只有明確使用AI技術的底線與紅線,才能真正讓科技向上、向善,為人類造福。(黃佳瑜)

  

【糾錯】 【責任編輯:李雪芹】