瞭望 | AI幻覺頻現 風險挑戰幾何-新華網
新華網 > > 正文
2025 08/19 09:05:28
來源:新華網

瞭望 | AI幻覺頻現 風險挑戰幾何

字體:

  當前的大模型處於“我不知道我知道什麼”的狀態,缺乏對自身知識邊界的準確判斷能力。這些技術特性決定了AI幻覺問題存在,需要通過多方面的技術改進來逐步緩解

  當前,人工智能技術已進入大規模應用階段,但AI幻覺問題日益成為制約其發展的關鍵瓶頸。面對這一挑戰,我們需要從技術創新、制度監管等多個維度構建綜合治理體系

  文 |《瞭望》新聞周刊記者 孫飛 陳宇軒

  當前,人工智能技術快速發展,但大模型“自説自話”、一本正經“胡説八道”、生成偏離事實內容的問題日益凸顯,這一現象被稱為“AI幻覺”。不少業內人士提醒,由於大模型主要基於概率生成文本而非邏輯推理,在短期內難以完全避免此類問題。

  《瞭望》新聞周刊記者觀察到,AI虛構事實或邏輯混亂的“幻覺”已在法律、內容創作、專業諮詢等多個領域造成實際影響。

  AI技術的發展方興未艾,但確保其生成內容的真實性和可靠性,尤其需要技術開發者、監管機構共同努力。針對“AI幻覺”問題,業界建議,在技術層面,要持續優化模型架構,增強事實核查能力;在監管層面,需完善相關規範,明確責任邊界。

AI幻覺 AI輔助設計

  幻覺頻現

  “AI幻覺”已經成為當前AI技術發展中最突出的技術瓶頸之一。從技術層面來看,AI幻覺的産生主要源於三個方面的原因:首先是訓練數據的不足或偏差,導致模型對某些領域的認知存在缺陷;其次是算法架構的局限性,當前主流大模型主要基於概率預測而非邏輯推理;最後是訓練目標的設定問題,模型往往更傾向於生成“流暢”而非“準確”的內容。

  “AI幻覺主要表現為事實性幻覺和邏輯性幻覺兩種。”業內人士介紹,事實性幻覺,表現為模型會編造完全不存在的事實或信息。這種情況在專業領域尤為突出,如在法律諮詢中虛構判例,在醫療診斷中給出錯誤結論,或杜撰歷史事件。邏輯性幻覺,表現為模型在長文本生成或連續對話中出現前後矛盾、邏輯混亂的情況,這主要是因為當前大模型的注意力機制在處理複雜語境時存在局限性。

  多項研究證實了AI幻覺問題的嚴重性。今年3月,哥倫比亞大學數字新聞研究中心針對主流AI搜索工具進行的專項測試發現,這些工具在新聞引用方面的平均錯誤率達到60%。一些研究顯示,AI並不擅長辨別“新聞事實來自哪”,會出現混淆信息來源、提供失效鏈結等問題。更令人擔憂的是,隨着模型規模的擴大,某些類型的幻覺問題不僅沒有改善,反而呈現加劇趨勢。

  多位業內專家認為,AI幻覺問題在現有技術框架下難以徹底解決。思謀科技聯合創始人劉樞&&,當前的大模型架構決定了其本質上是一個“黑箱”系統,優化結構等方式只能緩解模型幻覺問題,很難完全避免幻覺的産生。

  有受訪者從認知科學的角度分析,當前的大模型處於“我不知道我知道什麼”的狀態,缺乏對自身知識邊界的準確判斷能力。這些技術特性決定了AI幻覺問題的存在,需通過多方面的技術改進來逐步緩解。

  警惕風險

  業界普遍認為,在AI幻覺短期內難以完全消除的背景下,其潛在風險已從信息領域蔓延至現實世界,可能帶來較大風險。

  世界經濟論壇《2025年全球風險報告》已將“錯誤和虛假信息”列為全球五大風險之一,其中AI生成的幻覺內容被視作關鍵誘因之一。

  AI幻覺最直接的危害是造成“信息污染”。在法律領域,美國紐約南區聯邦法院在審理一起航空事故訴訟時發現,原告律師提交的法律文書中引用了ChatGPT生成的6個虛假判例,這些虛構案例包括完整的案件名稱、案卷號及法官意見,甚至模仿了美國聯邦最高法院的判例風格,其虛構能力干擾了司法程序。

  金融諮詢領域,AI可能給出錯誤投資建議,如誤讀財報數據或虛構企業信息。

  更令人擔憂的是,這些錯誤信息可能被其他AI系統吸收,形成“幻覺循環”——錯誤數據不斷被強化,最終污染整個信息生態。

  隨着AI技術向實體設備領域滲透,幻覺問題的影響已超越虛擬範疇,可能對人身安全構成威脅。在自動駕駛領域,生成式AI被用於實時路況分析和決策制定。業內人士&&,在複雜路況中,自動駕駛若産生“感知幻覺”,可能導致系統誤判環境,觸發錯誤決策,直接威脅行車安全。

  人形機器人領域風險更值得關注。優必選副總裁龐建新説:“當機器人因幻覺做出錯誤動作時,後果遠超文本錯誤。”例如,護理機器人可能誤解指令給患者錯誤用藥,工業機器人可能誤判操作參數造成生産事故。這些場景中,AI幻覺甚至可能威脅人身安全。

  協同治理

  對於AI幻覺問題帶來的挑戰,業內人士建議從技術創新、制度監管等多個維度構建綜合治理體系。

  技術創新是解決AI幻覺問題的根本途徑。近年來,業界已提出多種技術方案來應對這一挑戰。劉樞等介紹,檢索增強生成(Retrieval-augmented Generation,RAG)技術融合了檢索與生成模型優勢,是當前重要的發展方向之一。其通過將大模型與權威知識庫實時對接,能顯著提升生成內容準確性。

  全國政協委員、360集團創始人周鴻祎提出“以模制模”,構建專業知識庫,實施合理的矯正機制,構建更完善的安全防護體系,降低“幻覺”帶來的負面影響。例如,研發專用的安全大模型來監督知識庫使用和智能體調用,並採用多模型交叉驗證、搜索矯正等技術手段來識別和糾正幻覺。

  制度監管方面需要建立多層次的治理體系。雲天勵飛品牌運營中心總經理胡思幸認為,要完善監管治理,研究AI生成內容“數字水印+風險提示”雙重標識,為AI生成內容提供有效的溯源和警示機制。針對日益突出的AI造謠問題,法律界人士建議,要持續完善相關規定,明確利用AI造謠的法律責任,加大對違法行為的懲處力度。

  治理體系之外,當前階段,在用戶使用AI開展工作時,亦需要建立對AI能力的理性認知,了解其局限性。培養多渠道驗證信息的習慣,優先選擇權威、可信賴的媒體或機構作為信息來源,這些基本素養的提升將有效降低AI幻覺的社會影響。同時,在與AI系統交互時應保持必要的懷疑態度和批判思維,多渠道核查驗證信息的準確性。

【糾錯】 【責任編輯:陳聽雨】