如何看待AI“一本正經地胡説八道”-新華網
新華網 > > 正文
2025 07/02 08:12:57
來源:人民日報

如何看待AI“一本正經地胡説八道”

字體:

  【現象】使用人工智能大模型時,不少人或許都遇到過類似問題:它們有時會捏造細節,甚至“一本正經地胡説八道”。比如,讓它推薦書,給出的卻是一堆壓根不存在的書名;人物身份張冠李戴,還能給出一些並不準確的鏈結……這些現象都可以歸為AI幻覺。

  【點評】

  所謂AI幻覺,可以通俗地理解為AI也會像人産生心理幻覺一樣,遇到不熟悉或超出“知識儲備”的問題時,編造一些並不存在的細節,生成與事實相悖的答案。一項調研顯示,對於“公眾認為使用AI應用過程中有哪些突出問題”,反饋最多的是“內容不準確,或含虛假信息”,佔比高達42.2%。

  AI幻覺從何而來?可能得從源頭尋找答案。

  大模型的工作原理,是基於概率生成內容。給它上半句,它就根據自己“學”過的海量知識,“算出”下半句該説什麼。比如,當用戶輸入“今天天氣非常”,它大概率會接“不錯”“熱”“潮濕”等答案,而不會出現“甜”。同時,大模型又不是簡單地儲存所有事實,而會像人腦記東西那樣,進行大量壓縮和泛化——也就是“抓概要、找規律”。因此,當“喂給”大模型的訓練數據包含虛假信息時,它就會産生“幻覺”、給出錯誤答案。

  有報告顯示,我國生成式人工智能産品用戶規模達2.49億人。用戶規模快速增長,AI幻覺潛藏的風險也隨之增加。比如,如果一些看似合理卻與現實相去甚遠的內容被AI反復學習,會形成“數據污染—算法吸收—再污染”的惡性循環。有效防範由此帶來的虛假信息氾濫,已成為不容回避的課題。

  不過也有觀點認為,AI幻覺可被視作一種“發散思維”和“想象力”。理論上,如果把訓練一個大模型看作信息“壓縮”的過程,那麼大模型經過推理、輸出答案就是一個信息“解壓”的過程。這種處理信息的方式,可能會出現謬誤,也可能觸發新的創造。對發展尚未定型的新事物,要保持開放心態,辯證看待其利與弊,在有效防範弊端的同時,給予足夠空間使之朝好的方向成長。

  短時間內,AI幻覺問題難以被解決。各方都在努力降低其負面影響,相關部門也加大了對違規AI産品的處置力度,推動生成合成內容標識加速落地。一些大模型廠商在積極行動,比如文心大模型利用檢索到的信息來指導文本或答案的生成,提高了內容的質量和準確性;通義大模型加強訓練語料管理,通過“紅藍對抗”機制提升對虛假信息的識別能力。對廣大用戶而言,則要加快提升AI素養,學會“智慧”地運用“智慧工具”,既借助大模型破除思維定式、 啟發創新思路,又提高自身有效獲取、理解、評估和使用信息的能力。

  人類塑造工具,工具也影響人類生活。應對AI幻覺等問題挑戰的過程,既促使人們思考改進工作方法,也為AI不斷進化提供了源動力。激發新技術的正向價值,讓AI更好融入生産生活、賦能千行百業,我們邁向智慧時代之路才能走得更加穩當、更加順暢。(谷業凱)

【糾錯】 【責任編輯:冉曉寧】