ChatGPT太“卷”了!爆紅背後也有挑戰-新華網
新華網 > > 正文
2023 02/03 08:12:06
來源:人民郵電報

ChatGPT太“卷”了!爆紅背後也有挑戰

字體:

  2022年末,美國AI實驗室OpenAI推出AI聊天程序ChatGPT,無論是寫論文還是寫代碼,它都能一氣呵成、游刃有餘,號稱史上最強的人工智能。一經推出,ChatGPT迅速走紅,備受關注,發布一週用戶就突破100萬人,月訪問量達2100萬人次。據ARK風險投資公司首席未來學家Brett Winton統計的數據,不到兩個月的時間,ChatGPT的日活量已突破千萬。而當年同樣引起轟動的Instagram達到這一成就足足花了355天。

  而自ChatGPT發布以來,它的能力也不斷被人們解鎖,比如寫神經網絡、回答面試問題、做智能音箱。但人們在試用中慢慢發現,數學能力是ChatGPT的一大短板,連簡單的“雞兔同籠”題都能算錯。大概是考慮到這一點,ChatGPT近日宣布了一次重要更新:提升了真實性和數學能力。不得不感嘆,太“卷”了!

  學習和交互能力強大

  ChatGPT是一種語言模型,它被訓練來對對話進行建模。它能夠通過學習和理解人類的語言來進行對話,還能根據聊天的上下文進行互動,真正像人類一樣聊天交流,甚至能完成撰寫郵件、視頻腳本、文案、翻譯、代碼等任務。據了解,ChatGPT使用了一種叫做Trans-former的神經網絡架構,這是一種用於處理序列數據的模型,能夠在輸入序列中捕捉長期依賴性。它還使用了大量的語料庫來訓練模型,這些語料庫包含了真實世界中的對話,以便模型能夠更好地理解人類語言。

  而ChatGPT的良好使用體驗和商業前景也引發了資本的廣泛關注。1月12日,在美國一場活動上,曾擔任微軟董事長的比爾·蓋茨&&,他不認為Web3有那麼重要,也不認為元宇宙本身是革命性的,但是人工智能卻頗具顛覆性。當被問及如何看待ChatGPT時,他説:“這讓我能一窺未來。整個&&的方法和創新速度都令我印象深刻。”當地時間1月23日,微軟公司在官方博客中宣布,微軟將向OpenAI進行一項為期多年、價值數十億美元的投資,以加速其在人工智能領域的技術突破。據悉,微軟在2019年和2021年對OpenAI進行了投資,2019年微軟對其投資10億美元。

  據了解,ChatGPT較上一代産品提升明顯,對話模式具備更好的交互體驗。首先,從技術層面來看,GPT模型以Transformer為基礎,通過預訓練得到通用文本,模型的關鍵內容包括基座模型能力、真實數據和學習算法等。GPT已經過多個版本的演進,預訓練數據量也由5GB提升至45TB。ChatGPT基於GPT-3.5版本,在真實性、無害性、寫代碼等方面實現大幅提升。其次,對比Google等搜索引擎,ChatGPT的對話模式對於用戶更有吸引力,但尚不具備替代搜索引擎的能力。ChatGPT的數據來自訓練數據庫,目前數據庫僅更新至2021年,可用信息有限,同時真實性也無法得到保障。此外,從商業模式來看,ChatGPT目前採用免費的模式。根據OpenAI的CEO SamAltman披露,ChatGPT每次聊天成本約為幾美分,其中一部分來自Azure雲服務,未來公司在持續優化成本的同時,會考慮通過收費獲利,預計的收費模式包括訂閱制、按條收費等。

  隨着ChatGPT迅速走紅,其競爭者也不斷涌現,從Anthropic公司的Claude、DeepMind公司的Sparrow、谷歌公司的LaMDA到Character AI,這個賽道將變得越來越“卷”。

  將增加虛假信息風險

  ChatGPT顯然是一個強大的新工具,具有在許多領域産生有益影響的潛力,但它也有弊端。近日,美國休斯敦大學法律中心助理教授尼古拉斯·古根伯格(Nikolas Guggenberger)等指出,類似ChatGPT這樣的人工智能能夠針對任何事産生無限的、近乎免費的“觀點”。這些虛假觀點將為網絡上的影響活動提供動力,並削弱自由話語中的另一個信任支柱,即我們在網絡上與之交流的是真實的人這一理念。

  過去幾年,傳統媒體更新了其發現虛假信息的方式;社交媒體也在發現、標記和壓制虛假信息方面取得了更多成功。然而,類似人類對話的虛假觀點帶來了新的挑戰。簡單的機器人可以使用新創建的賬戶一次又一次地複製和粘貼或多或少相同的社交媒體帖子,這些機器人發布的重復性內容和可疑的發布模式使它們相對容易被社交媒體識別和禁止,即使這樣做也需要花費時間。

  而ChatGPT或類似的人工智能,將使“偽草根營銷”(astroturfing,一種帶欺騙性質的營銷手法,通過雇用寫手在網絡上大肆宣傳某産品,試圖營造普通消費者熱愛某産品的虛假印象)幾乎是免費的,而且很難被發現。與過去的機器人不同,ChatGPT不需要發送幾乎相同的複製粘貼的邊緣觀點。它們可以模仿人類,針對各種主題産生無限的具有連貫性和細微差別的獨特內容。這些機器人賬戶不僅會主動發帖,還會對其他用戶的帖子做出響應,並展開長期的對話。

  認知科學家加裏·馬庫斯(Gary Marcus)認為,ChatGPT存在兩個核心問題:神經網絡“既不可靠也不真實”。谷歌的人工智能研究人員在最近的一篇論文中承認,僅僅擴大模型的規模難以成功。僅擴大規模不會帶來“安全和事實基礎方面的改進”。許多對ChatGPT的懷疑和批評都歸結為將其與人類的比較,而事實上,大型語言模型並不能像人類那樣思考。(記者 楊讚)

【糾錯】 【責任編輯:冉曉寧】