
如今的互聯網上充斥着大量由AI工具生成的劣質信息。圖片由AI生成
如今的互聯網上,看似信息海量,但也充斥着大量單調、重復且缺乏質量的內容。
美國《紐約時報》網站在12月8日的報道中指出,當前網絡,尤其社交平台正氾濫一種被稱為“AI垃圾”(AI Slop)的內容。英國《新科學家》網站10日也發表文章稱,今年,許多人感覺仿佛置身於一堆華而不實的“AI垃圾”中。英國《經濟學人》雜誌更是將“Slop”一詞選為2025年度詞彙。這類錯漏百齣、古怪甚至令人尷尬的內容遍佈各平台,也在悄然侵蝕着人們的思想。
“假冒偽劣”信息充斥網絡
“Slop”原指“豬食”“泔水”等廉價、粗糙、缺乏營養之物。如今,借由AI技術的浪潮,一些如同“Slop”的垃圾內容正在互聯網上肆意蔓延。
“AI垃圾”特指由AI工具生成的大量劣質、重復或無意義的文字、圖像或視頻,常見於社交媒體和自動化內容農場。
美國科技網站CNET在10月28日的報道中提到,如今社交平台上“AI垃圾”五花八門:OpenAI的Sora可讓人幾秒內生成滑稽荒誕的視頻;LinkedIn上滿是由AI包裝的“專家箴言”,例如“有時領導力就是保持沉默的能力”;谷歌搜索結果也宛如AI雜貨舖,竟會出現“姜黃能治愈心碎”這類無稽之談。
“AI垃圾”與“深度偽造”或“AI幻覺”雖有重疊,卻並不相同,其區別在於意圖與質量。
&sp; “深度偽造”指利用AI偽造或篡改影音,目的在於欺騙,從虛假政治演講到詐騙語音皆屬此類,其關鍵在於以假亂真。“AI幻覺”則屬技術錯誤,聊天機器人可能引用不存在的研究,或編造法律案例,本質是模型在預測詞語時出現了偏差。而“AI垃圾”範圍更廣,也更隨意:當人們用AI批量生産內容卻疏於核對準確性與邏輯時,便會産生此類垃圾。它們堵塞信息渠道,抬高廣告收益,用重復無意義的內容佔據搜索結果。其錯誤源於敷衍,而非欺騙或技術局限。
技術濫用與貪婪心態成推手
“AI垃圾”之所以氾濫,一方面因為AI技術日益強大且成本低廉。AI公司開發這些模型,本意是降低創作門檻,讓有好點子卻缺乏技能或資源的人也能製作出更優質的內容。然而,有些人卻濫用AI工具海量生成文本、圖片與視頻,只為博取點擊和廣告收入。
隨着ChatGPT、Gemini、Claude等工具,尤其是Sora、Veo這類新型生成器的出現,幾秒內生成可讀文本、圖像與視頻已成為可能。於是,內容農場應運而生。一些人發現,用AI填充網站、社交動態和YouTube頻道,遠比人工創作更快。
AI不在意真相、品位或原創性,它只關注概率。這使得“AI垃圾”易於製作,迅速傳播。例如,某個YouTube頻道僅憑4個視頻,就積累了420萬訂閱和數億播放量。
平台也在無形中助推此風。算法往往更看重內容的點擊與互動數據,而非質量。發布越頻繁,獲得關注就越多,哪怕內容純屬胡扯。AI讓這類操作變得易如反掌。
另一方面,利益亦是幕後推手。有些創作者大量發布虛假名人消息或夾帶廣告的標題黨視頻;也有人濫用AI內容誤導用戶,將其引向劣質網站。
乍看之下,“AI垃圾”似乎無傷大雅——無非是動態裏幾條劣質帖子,或許還能博人一笑。然而當數量爆發,一切便會不同。隨着垃圾信息充斥網絡,可信來源在搜索結果中排名下降,真實與虛構的界限也變得模糊。
這種信任危機帶來切實後果:當無人能辨真假,錯誤信息便傳得更快。
應珍視人類的真誠創作
目前尚未有完美解決方案,但一些企業已開始嘗試。
例如,Spotify等平台開始為AI生成內容添加標籤,並調整算法以降低劣質內容的推薦權重。谷歌、抖音與OpenAI等公司也承諾推出水印系統,幫助用戶區分人工內容與合成內容。不過,若有人對內容進行截圖、轉碼或改寫,這些方法仍可能失效。
部分應對措施基於一項名為C2PA(內容來源與真實性聯盟)的行業標準。該標準由Adobe、亞馬遜、微軟、Meta等企業共同支持,通過將元數據嵌入數字文件,記錄其創建與編輯過程。若順利推行,C2PA可幫助追溯圖片、視頻或文章的來源,無論其來自可信人類創作者,還是AI生成器。然而難點在於普及:元數據可能被剝離或忽略,且多數平台尚未形成一致的執行規範。
當然,最有效的防護,其實在於人類自身。“AI垃圾”依賴自動化生産和人們無意識地刷屏與轉發——大多數人都曾有過這類體驗。因此,放慢節奏、核實來源、支持那些仍堅持用心創作的作者,雖不能立竿見影,卻是重要的開始。
垃圾氾濫在互聯網世界並非新事。人們曾對抗垃圾郵件、點擊誘餌、虛假信息……“AI垃圾”只是同一故事的新篇章:更快、更流暢,也更難察覺。網絡能否保持其應有的品質,取決於人們是否依然珍視人類的真誠創作,而非機器的機械輸出。(記者 劉 霞)




