全紅嬋、孫穎莎、王楚欽
都在賣土雞蛋?
當你刷到這樣的視頻
千萬別信,是假的!
近日網絡掀起一波“打假”風浪
目標直指AI(人工智能)
克隆聲音亂象
媒體報道AI克隆聲音亂象(視頻截圖)
小編專門請教了法律專家
得到的結論是:
利用AI倣冒他人身份“帶貨”
是違法行為
已侵犯被倣冒者和消費者權益
“我是你們的嬋寶
有事請大家幫忙
今天讓媽媽先拿出
300單老家的土雞蛋
給大家放福利”
“大家好,我是莎莎
我為嬋寶家農家土雞蛋代言”
“大家好,我是王楚欽
昨天收到嬋妹私信
這麼好的土雞蛋不發出去
就可惜了”
媒體報道AI克隆聲音亂象(視頻截圖)
當你聽到奧運冠軍們熟悉的“聲音”
是不是以為他們本人正在“帶貨”
出於對他們的喜愛和信任
你可能會下單購買&&支持
殊不知
這些都是AI偽造出的名人聲音
媒體報道AI克隆聲音亂象(視頻截圖)
雲南大學人權法研究中心
執行主任劉紅春説
利用AI倣冒奧運冠軍“帶貨”行為
已侵犯了他們的肖像權與聲音權
被侵權人可以要求商家
停止侵權行為
賠償損失與賠禮道歉
“不法分子選擇大家喜愛的名人下手
正是看中其社會影響力和公眾信任度
從而達到誤導消費者、推銷商品
甚至實施詐騙的目的”
全紅嬋、孫穎莎、王楚欽在比賽中。新華社記者 攝
此外,法律專家提示
該類倣冒行為並非僅針對名人
倣冒任何自然人的行為均屬違法
如果商家還誘導消費者購買
高價、低質或不存在的商品
且騙取財物數額較大
就觸犯了刑法,涉嫌詐騙罪
有可能要坐牢
媒體報道AI克隆聲音亂象(視頻截圖)
中國政法大學
人權研究院教授劉小楠説
當前互聯網&&出現不少
AI移花接木的視頻
AI換臉、AI盜聲的不當濫用
是人工智能技術帶來的新挑戰之一
我國目前對AI合成技術
已經作出一些規定
《生成式人工智能服務管理暫行辦法》
就要求
提供和使用生成式人工智能服務
不得侵害他人肖像權、名譽權、
榮譽權、隱私權和個人信息權益
2023年1月8日,一名女士在美國拉斯維加斯消費電子展上體驗智能科技。新華社發(曾慧攝)
值得一提的是
《人工智能生成合成內容標識辦法》
將從今年9月1日起開始施行
所有AI合成的內容
必須依法打上電子水印
沒有標識的,大家可以舉報
如果刷到疑似假貨,也可錄屏舉報
或者@官方客服
比如本圖就由AI生成
法律專家提醒大家:
千萬不要輕信
AI生成的音視頻或直播
避免財産損失
被倣冒者可拿起法律武器
維護自身權益
網站&&要提升檢測鑒偽能力
加大監管
對內容嚴格審核,做好處置
2025世界人工智能大會現場,機器人正在為觀眾挑選商品。新華社記者 程思琪 攝
對於AI,小編想説的是
我們既要對它開放包容
用好、發展好
對它所帶來的新問題
也要堅持在發展中治理
明確使用AI技術的底線與紅線
真正讓AI向上、向善
為人類造福
記者:岳冉冉