須對AI技術進行制度規范和約束-新華網
新華網 > > 正文
2023 12/07 08:57:06
來源:科技日報

須對AI技術進行制度規范和約束

字體:

  以ChatGPT為代表的生成式人工智慧技術,依靠其強大的文本生成能力,早已經無可避免地滲入到了寫作領域。當人們還在驚嘆于AI文章的流暢結構、精準表達之時,有一部分人已熟練地把ChatGPT當作撰寫學術論文的工具。

  日前,江蘇省科技廳監督評估處處長顧俊在做客江蘇廣電總臺新聞頻道《政風熱線》時回應稱,將組織開展科技人員公開發表論文的自查和抽查,並開展科技倫理審查,引導科技人員提高誠信意識。

  那麼,ChatGPT等生成式人工智慧技術究竟能否用于學術論文寫作?如何防范AI技術濫用帶來的學術不端現象?科技日報記者採訪了相關主管部門工作人員和業內學者。

  産生的學術不端風險不容忽視

  不能否認,ChatGPT能生成連貫的、有邏輯性的文章,並給人們的工作和生活帶來了便利。但是,由此産生的學術不端風險不容忽視。國外已有研究人員發現,ChatGPT所給的回答都是基于它模型訓練的海量數據,有時可能會限制人們的思維,甚至有些回答並不準確,比如只選擇有利于自己觀點的數據進行佐證,忽視其他數據。

  12月1日,《科技倫理審查辦法(試行)》正式實施,記者查詢後並未在其中找到與生成式人工智慧技術相關的條款。目前,國內相關部門和科研組織對ChatGPT寫論文的規定還未明確細化,但是不論以何種方式,只要出現抄襲、剽竊、造假等學術不端行為,都是嚴查重罰的對象。

  11月24日,國家自然科學基金委員會公布了2023年第二批不端行為案件的調查處理結果,數量最多的不端行為是抄襲、剽竊、偽造各種資訊,總數達15人,佔比62.5%。記者了解到,國內已有省份對科研論文進行有針對性的抽查,重點檢查抄襲、造假和重復發表等學術不端現象,雖然沒有專門針對ChatGPT,但是這些問題都有可能與之相關。

  江蘇省科技廳監督評估處相關負責人説,將進一步加強科技倫理審查。同時,要求各單位對所發表的學術論文進行學術不端問題自查和清理,科技部門不定期組織開展主動抽查工作,不斷更新學術不端治理程式和標準。

  該負責人表示,防范AI技術濫用帶來的學術不端,將是科技管理部門今後重點監管內容之一。目前,國內已有科研單位在開發相應軟件,用于AI寫論文的查重工作,今後想利用ChatGPT寫論文獲得榮譽獎勵和科研項目將越來越難。

  如何面對避無可避的AI技術

  南京理工大學教授李千目,長期從事人工智慧係統安全、大數據挖掘研究。在他看來,當人們在談論AI技術所産生的負面影響時,更應當看到它們所帶來的便捷與進步。

  “AI技術是科研輔助工具之一,它讓我們對某個問題調研更便捷、分析更明確、研判更精細,資料收集和資訊反饋更全面和完整,如果我們合理地運用這個工具,對科研成果(包括但不限于論文)的整體提升會有較大作用。”李千目解釋説。

  那麼,在實踐中AI技術到底該如何更好地為科研工作服務,而不是成為抄襲造假的工具?

  李千目表示,首先要有制度規范,並約束AI技術的使用,比如12月1日起實施的《科技倫理審查辦法(試行)》,它規定了科技工作者及其共同體應恪守的價值觀念、社會責任和行為規范。希望對這些制度、標準進行廣泛地宣貫,讓更多的科研人員去了解、遵循。

  其次是提升社會各界對AI技術的認知。李千目認為,在人類社會和科學發展每個階段,抄襲幾乎無法完全避免,利用AI技術進行抄襲、剽竊並謀取某些利益,必須嚴厲打擊。但是,提升人們對AI技術的認知並推廣使用,有助于推動社會進步和技術發展。

  “比如利用AI廣泛地採集資訊,讓我們的論點和思路更加可行、更加有效,這件事情本身不是壞事。”李千目説,面對海量數據,他們很難全面有效地收集所需資訊,而AI工具可以更高效地完成這項工作。

  但出于各種原因,很多將AI用于科研論文的作者並不樂于披露這個事實。“我堅持認為,在論文寫作和數據收集中使用到AI技術,必須在參考文獻裏進行標注。”李千目説。

  不難看出,AI在當下科研工作中已扮演重要角色。更重要的是,人們似乎也別無選擇——面對AI,不必回避,也避無可避。

  目前,國外已有高校宣布解除ChatGPT使用禁令,並推出了詳細的使用原則。因此,多位科研工作者向記者表示,對AI技術在科研工作中的使用不應一刀切地反對,也不能對AI帶來的學術不端行為放任不管。(記者 張 曄)

【糾錯】 【責任編輯:周靖傑】