新一輪科技革命和産業變革迅猛發展,數字技術、智能經濟與數字化産業成為催生新産業、新業態、新模式的重點領域。發布僅6個月的ChatGPT,已掀起全球人工智慧(AI)産業的大模型熱潮。在日前舉辦的中國人工智慧産業年會中,AI大模型帶來的安全挑戰和發展機遇成為與會專家熱議話題。
賦能千行百業
ChatGPT在與人類對話、寫作文、寫代碼等方面令人驚艷的表現,是AI大模型GPT通過大算力、大規模訓練數據突破自然語言處理瓶頸的結果。但大模型本身並不是新鮮事物,AI大模型也不止GPT這一條路線,很多科技巨頭近幾年都在“煉”大模型,且各有積累。這也是ChatGPT走紅之後,各巨頭短短數月內就紛紛推出競品的原因。
“以ChatGPT為代表的多模態通用大模型,將深刻變革各行各業。”電子科技大學教授、考拉悠然科技有限公司聯合創始人沈復民説,行業人工智慧可有效推動技術與市場供需平衡,將是人工智慧産業化的最大機遇。人工智慧技術落地行業時,需要克服開發效率低、落地成本高、場景復雜多元等難題。
沈復民所在的研發團隊獲得了2022年度吳文俊人工智慧科學技術獎自然科學一等獎。據他介紹,團隊開發了為垂直行業賦能的多模態AI作業系統,基于行業多模態大模型、多模態融合分析、機器視覺等核心AI演算法支援,可以讓企業擺脫繁雜的演算法、算力、數據整合工作,快速孵化行業大模型,高效率應用到工業制造、城市治理、消費、能源、交通、建材等業務場景。
“通用對話技術是人工智慧領域最具挑戰性的方向之一,也被認為是通用人工智慧的必備能力。如今備受關注的對話式人工智慧,其背後就有通用對話技術。”百度首席技術官、深度學習技術及應用國家工程研究中心主任王海峰説。中國人工智慧産業年會期間,由他帶領團隊完成的“知識與深度學習融合的通用對話技術及應用”成果,獲2022年度吳文俊人工智慧科技進步獎特等獎。
公開資料顯示,這一研究項目已獲授權發明專利82項,發表高水準論文36篇,在國際權威評測中獲世界冠軍11項。目前項目成果實現了大規模産業應用,已支援5億智能設備,服務超過10億用戶,覆蓋包括通信、金融、汽車、能源等20多個行業。
爭取“主動安全”
技術是把雙刃劍。人工智慧大模型能力越大,一旦濫用帶來的危害也就越大。當前,ChatGPT等工具被用于生成假新聞、假照片、假視頻,甚至實施詐騙等犯罪行為,引發人們對大模型安全性的擔憂。
西北工業大學教授王震是網絡空間智能對抗應用研究領域的專家,他認為,要用人工智慧驅動網絡空間智能對抗。比如,用人工智慧檢測、識別有害資訊,搭建“主動安全”的智能防禦網。
“只有在AI發展過程中,我們才能面對問題、解決問題,並找到機遇。”螞蟻集團AI風險管理負責人楊舟表示,在AI管理中,安全事件對日常風險管理至關重要。“我們需要重視和預測相關事件,分析安全問題,避免發展帶來的風險。”
了解機理是安全管理的基礎。不過,大模型的“智能涌現”目前還是個難以解釋的黑箱,沒有人能理解、預測或可靠地控制這些大模型,甚至模型的創造者也不能。開發出ChatGPT的公司OpenAI,也為大模型做了大量價值敏感設計和道德嵌入工作,但仍然存在明顯的漏洞和局限。
“雖然大模型的能力在不斷變強,但如果不對其進行專門的安全性訓練或安全性加固,其脆弱性不會得到任何改善。”瑞萊智慧公司首席執行官田天認為,人工智慧大模型的安全性面臨很多挑戰。
“大模型是人工智慧發展的轉折點,研究人員需要進一步了解這些大模型為何具備類人思考的能力。”香港科技大學教授馮雁表示,ChatGPT最初只作為科研項目發布,但通過加入人機交互界面,迅速變成網紅産品。其爆紅帶來的倫理問題始料未及,也給生成式人工智慧的管理提出了挑戰。“只有真正的開源,才能共同研究,理解大模型存在的問題和産生的根源,更好地進行管理。”
“商湯一直是開源開放的貢獻者和支援者,但在開源上我們要謹慎一些,特別是目前對于大模型而言,安全防護體係還未健全。”商湯科技人工智慧倫理與治理研究主任胡正坤説,在智能時代把底層模型開源,不見得安全,因為在開放能力的同時,也在開放薄弱點,而薄弱點有可能被不法分子利用。
亟需深度治理
專家們對未來的人工智慧長遠治理做出種種設想。
“不能把價值設計看成治理的唯一路徑。”復旦大學應用倫理學研究中心教授王國豫認為,針對現階段人工智慧治理的局限性,可從三方面採取措施。一是充分評估數據和模型的倫理影響和風險點;二是從流程方面,不僅要考慮通用模型,還要把通用模型納入到社會生態係統、社會政治經濟係統來考慮;三是探索倫理方法,充分探索“價值敏感設計”“負責任創新”等倫理方法在通用模型語境下的可行性。
中國社會科學院哲學所科技哲學研究室主任、研究員段偉文表示,需要警惕機器對人類思維的馴化。比如,有的人不擅社交,可能用人工智慧生成對話的方式幫他社交聊天,這樣的對話機制會反過來馴化人類。他建議加強人類和人工智慧的交互和溝通,不僅要了解人類怎麼去修機器,也要研究機器如何影響人類。
中科院自動化研究所研究員曾毅期待構建人工智慧的道德直覺,“為機器人立心、為人工智慧立心”是重要的長遠工作目標。“強化學習的獎懲只是加加減減,它不是真正對道德的理解,除非人工智慧實現基于自我的道德直覺。缺乏自我的人工智慧無法擁有真正的道德直覺,做真正的道德決策。我們在做一個基于類腦的脈衝神經網絡構建創生的人工智慧引擎,希望讓它像兒童一樣去學習,獲得自我感知。”曾毅説。
“從要求人工智慧大模型合乎倫理,到真正構建有道德的人工智慧。”曾毅表示,未來通用人工智慧和超級智能的倫理安全問題,要從現在就開始關注和準備。(記者 佘惠敏)