AI論文“抄觀點不抄字”引激辯-新華網
新華網 > > 正文
2025 09/22 08:39:03
來源:科技日報

AI論文“抄觀點不抄字”引激辯

字體:

  人工智能(AI)生成的科研成果正引發學界對“思想抄襲”的激烈爭論。

  《自然》雜誌日前一則報道稱,部分研究人員發現,一些標注為大型語言模型生成的論文,雖未直接複製文字,卻存在挪用他人研究方法或核心觀點且不標注出處的情況,即“抄觀點不抄字”。

  但對這種“思想抄襲”或“思想挪用”的指控,有學者及AI研發團隊予以否認。

圖片來源:AI生成

“思想挪用”案例頻引爭議

  今年1月,韓國高等科學技術研究院研究員樸炳俊收到印度班加羅爾科學研究所“揭發團隊”的郵件,被告知一款名為“The AI Scientist”的工具生成的未正式發表手稿,疑似使用了他論文中的研究方法,卻並未署名。“The AI Scientist”由東京Sakana AI公司於2024年推出,是計算機科學領域全自動科研工具的代表,能通過大型語言模型生成思路、自主編寫運行代碼,並撰寫研究論文,且會明確標注為“AI生成”。

  樸炳俊核查後發現,該AI手稿雖提出了新架構,與他的論文主題不同,但兩篇論文的核心方法高度相似。

  發現這一問題的印度“揭發團隊”指出,類似情況並非個例。他們在今年2月發表的研究中提到,經外部專家評估,多個AI生成手稿存在未直接複製文字,卻挪用他人觀點且不署名的現象。這些由大型語言模型生成的研究觀點表面看似新穎,實則是“巧妙地抄襲”,其原創性難以驗證。

  此外,“揭發團隊”還發現,Sakana AI今年3月宣布的、首篇通過國際學習表徵會議研討會同行評審的全AI生成論文,疑似挪用了2015年發表的一項研究中的核心成果,且未標引用,同時,其還借鑒了另一篇2015年的未署名手稿。專家評估認為,這篇AI論文與2015年的研究相似性達到了5級,即具有極高的相似性。

  為進一步驗證,“揭發團隊”選取了美國斯坦福大學團隊2024年發布的4份AI生成研究方案、Sakana AI的10份AI手稿,以及與Sakana AI使用相同方法生成的36份新方案,邀請13位領域專家按“5級相似度量表”評估(5級為方法完全對應,4級為融合2—3項前人成果)。結果顯示,24%的AI生成作品達到4—5級相似度。

如何定義“抄襲”仍存分歧

  針對上述指控,“The AI Scientist”研發團隊予以否認,稱“抄襲指控不實,毫無根據且應被無視”。團隊&&,被質疑的AI手稿與前人研究假設不同、應用領域各異,即便方法存在部分關聯,也只是“未引用相關文獻”,這在人類研究者中也屬常見現象,且團隊已承認工具存在引用不足問題,但強調AI生成成果並非抄襲。

  學界對“是否構成抄襲”的判斷也存在分歧。美國佐治亞理工學院機器學習研究員本·胡佛認為,樸炳俊提及的AI論文與他本人的研究相似度僅為3級,“遠不足以構成抄襲”。韓國高等科學技術研究院研究生白真宥則指出,新穎性本身就具有主觀性,人類評審在學術會議中也常就何為原創爭論不休。

  樸炳俊本人雖認為其研究與AI論文的方法相似度達5級,但也&&“這未必符合法律或倫理層面的抄襲定義”。

  柏林應用科學大學專家德博拉·韋伯-伍爾夫指出,爭議根源在於“抄襲”定義的認知差異:部分計算機科學家認為抄襲需“主觀故意欺詐”,但她主張“意圖不應作為判斷標準”,因為AI沒有主觀意識,且現有AI系統無法追溯觀點來源。她引用國際學術誠信中心前主任泰迪·菲什曼的定義:“未恰當標注他人可識別的觀點或成果,且存在原創性預期時,即構成抄襲”。

現有學術體系飽受衝擊

  爭議背後,是AI科研對現有學術體系的深層挑戰。德國錫根大學機器學習專家喬拉恩·比爾指出,計算機科學等領域每年論文數量激增,研究者本就難以驗證自身觀點的新穎性;而大型語言模型通過重組訓練數據生成觀點的特性,會加劇學術信用流失,因為AI天然傾向於借鑒前人成果。

  更關鍵的是,“思想抄襲”的驗證尚無有效解決方案。韋伯-伍爾夫坦言,目前沒有統一方法能證明“思想抄襲”與“文字抄襲”不同,觀點挪用難以量化。新加坡南洋理工大學AI研究員劉陽也&&,現有技術可檢測句子語義相似度,但“觀點或概念層面的相似度檢測研究極少”。

  研究測試顯示,商業抄襲檢測工具Turnitin未能識別出專家判定的AI論文來源文獻,學術搜索大型語言模型工具OpenScholar僅識別出1篇。

  “The AI Scientist”雖會通過“大型語言模型生成關鍵詞+語義學者搜索引擎+大型語言模型評估”的流程驗證原創性,但比爾認為,該過程過於簡化,因為關鍵詞難以完整概括觀點,搜索引擎可能遺漏關鍵文獻,無法媲美領域專家的判斷。

AI使用標準亟待明晰

  面對爭議,學界普遍認為需規範AI科研工具的使用。

  新加坡國立大學計算機科學家靳民彥&&,AI工具終將普及,關鍵是找到正確的使用方式。“The AI Scientist”研發團隊則&&,其成果僅是“概念驗證”,旨在證明“AI生成科研論文已具備可行性”,未來這類系統有望實現“重大原創發現”。團隊同時承認AI生成論文存在質量問題,建議當前階段僅將這一工具用於“ 啟發思路”,研究者需自行驗證其輸出內容的可靠性。

  目前,關於AI生成科研成果的學術規範尚未成形,如何平衡AI的科研輔助價值與學術誠信,仍是學界亟待解決的課題。(記者 張夢然 實習生 周思彤)

【糾錯】 【責任編輯:朱家齊】