當前,人工智能(AI)技術給人們生産生活帶來便利的同時,也出現不少風險挑戰,AI造假就是其中之一。例如,有不法分子利用“AI換臉”“AI變聲”等合成技術實施詐騙,迷惑性很強;一些不良商家靠AI假圖吸引顧客,“圖文不符”“貨不對板”等現象頻發。
國家互聯網信息辦公室等四部門日前聯合發布《人工智能生成合成內容標識辦法》,要求AI服務提供者和內容傳播&&必須採取措施對AI生成內容進行標識。
《辦法》的&&是從頂層設計出發、加強人工智能行業治理的又一項制度安排,可有效遏制AI偽造內容産生、傳播,推動AI在合法框架內健康發展。在此基礎上,公眾將更容易識別人工智能合成內容,有效減少造假誤導情況發生。
最大限度降低AI濫用影響,讓技術更好造福人類,還需社會各界達成共識,形成治理合力。互聯網&&是AI生成內容的主要傳播渠道,強化AI生成內容治理,&&應發揮更大作用。《辦法》特別明確了&&需對合成內容進行審核、核驗。對此,有電商&&企業第一時間作出回應,發布新規嚴禁利用AI等技術合成方式,呈現顯著失真、與實際不符的商品信息效果圖,還向全行業發出倡議,規範使用AI生成圖片,保障商品信息真實,號召加入對AI假圖的全面治理。
不同於資訊、娛樂內容,商品圖片直接關係到消費決策,需要更精細的管理。&&要主動出擊完善規範、推出治理方案,可通過模型識別,攔截失真的AI假圖上傳,同時針對存量假圖向商家發出整改提醒,並標注提醒消費者注意甄別。(李芃達)
【糾錯】 【責任編輯:冉曉寧】