記者手記丨如何讓人工智能更“靠譜”-新華網
新華網 > > 正文
2026 01/26 18:23:05
來源:新華網

記者手記丨如何讓人工智能更“靠譜”

字體:

  新華社新加坡1月26日電 記者手記|如何讓人工智能更“靠譜”

  新華社記者舒暢

  越來越多人意識到,人工智能聊天機器人並不總是可靠。它可能答非所問、前言不搭後語,有時甚至“一本正經”地捏造不存在的信息。在1月下旬於新加坡舉行的第40屆人工智能促進協會年會上,如何讓人工智能更“靠譜”、更“負責”,是這場國際人工智能學術會議的重要議題之一。

  在研究者眼中,人工智能的缺陷對應着更細分的問題。比如,人工智能的置信度值是否與真實情況匹配等。一個來自意大利的研究團隊在本屆年會上提醒説,合理計算人工智能的置信度值非常重要。

  在這項名為“盲目自信的陷阱”的研究中,參與者在人工智能協助下完成邏輯推理題。結果顯示,當人工智能表現得非常自信時,參與者更容易採納它的建議——但這些建議很可能是錯的;然而,如果人工智能猶豫不決,用戶卻可能會拒絕正確的建議。

  意大利米蘭-比可卡大學的研究成員卡泰麗娜·弗雷戈西説,這兩種情況都反映了現實問題:很多人工智能系統的置信度值沒有被正確校準,從而向使用者傳遞了誤導性的信號。

  置信度值問題並非人工智能可靠與否的唯一體現。另一項來自印度和美國團隊的研究,則從“認知疲勞”的角度,觀察人工智能如何在不知不覺中變得不可靠。

  美國南卡羅來納大學人工智能研究所的研究成員裏朱·瑪爾瓦説,隨着人類與聊天機器人對話時間越來越長,模型會開始“走神”:偏離原始指令、重復輸出內容,甚至以自信的口吻生成不可靠的信息。研究團隊將這種現象稱為“認知疲勞”,且它並非偶發,而是一種系統性效應。

  “認知疲勞是可以被發現、預測並干預的。”瑪爾瓦説。團隊設計了一個系統,通過追蹤注意力衰減等三個關鍵指標,將人工智能何時開始“疲勞”可視化,並提供多種實時干預手段,如當人工智能開始偏離指令時,這套系統會重新輸入原始指令,讓對話回到“正確軌道”。

  在大會現場,從單一的聊天機器人,到可以自主完成任務的智能體,再到多個智能體組成的協作網絡,研究者們不只關注它們的能力與效率,也反復探討它們的邊界和可控性。

  在不少參會者看來,完全放手讓智能體自主完成任務,遠沒有想象中簡單。

  “目前,這些智能體的行動邊界非常寬,它們能寫代碼,可以在計算機上做我們能做的任何事情……所以,我們應該把研發重點轉向人類與智能體的協作,建立智能體與人類之間的透明交互,這具有現實緊迫性。”美國微軟人工智能前沿實驗室主任埃傑·卡馬爾説。

  微軟首席科學官埃裏克·霍維茨認為,當前種種不確定性,與人類尚未完全理解人工智能內部運作機制密切相關。

  在23日的歷任主席對談會上,他説:“今天的人工智能表現令人驚訝。我説‘驚訝’,是因為我們仍無法給出令人滿意的科學解釋:它們為何如此高效?如何失敗?在哪些方面脆弱?對人工智能內部機制和原理的系統性科學探索,現在變得非常緊迫。我們必須打開這個‘黑箱’。”

【糾錯】 【責任編輯:王雪】