AI時代的驗證碼難題

2023-12-13 10:51:56 來源: 《環球》雜誌

11月7日,在第六屆中國國際進口博覽會技術裝備展區,觀眾體驗“VR行走沉浸劇場”

  驗證碼作為一種技術形態或許終將被日益先進的AI所淘汰,但是其背後所代表的人機區分、人機關係等根本問題也將逐漸浮出水面,成為AI時代我們必須積極回應的重大問題。

文/肖仰華

編輯/吳美娜

  你所服務的,是人,還是機器?這是個問題。

  機器智能的突飛猛進,讓智能的光環已不再唯“我”所有。當智能機器無處不在,人們不得不經常發出“喂,是你嗎?”此類確認同類之詢問。

  這與大家都極熟悉且經常要用到的驗證碼高度相關。一個較為明朗的事實是,隨着人工智能(AI)技術的進步,驗證碼失效幾乎是一個必然的不可逆轉的趨勢。但驗證碼背後的人機區分問題,卻將成為AI技術治理日益重要的問題之一。

驗證碼終將被淘汰?

  驗證碼的一個基本功用,在於人機區分,也就是識別某個賬號是人還是機器,進而阻止機器對於&&、系統或數據的訪問。為防後患,人機區分十分必要,比如婚戀網站顯然不希望一個機器賬號登錄網站與人類談婚論嫁。再比如很多購物網站有讓利或者紅包發放,一旦機器賬號混入,機器便可比普通人類以更快的速度搶到更多優惠。換言之,機器在計算與訪問數據等方面的速度是人類所無法比擬的,面向人類服務的&&並不希望機器賬戶登錄。因而,長期以來,驗證碼都是保障互聯網信息服務業健康發展的重要關卡。

  然而,伴隨着人工智能的快速發展,人機區分將變得日益困難。人機區分的關鍵,在於刻畫出人類智能獨有的、不能或者至少是難以被機器智能所侵犯的領地。從機器智能的發展歷史來看,這個領地的範圍將會越來越窄。比如,我們曾經認為在下圍棋這樣的高度智力密集活動中機器難以超越人類,也曾認為在進行高質量對話中機器難以超越人類,更曾認為蛋白質結構預測這樣的科學發現是機器難以超越人類的……然而事實是,人們假定這些機器難以超越人類的任務列表曾經很長,如今已經越來越短。“圖靈測試”(由現代計算機科學之父英國人阿蘭·圖靈於1950年提出的一種測試機器是不是具備人類智能的方法)已然不再靈,但是人類還來不及提出新的有效的代替性測試方案。

  人機區分日益困難,催生的産物之一是日益複雜的驗證碼。作為普通用戶,人們深感驗證碼形式越來越多樣、內容更複雜、進化更迅速。在日常的信息系統交互過程中,有人甚至發出感慨:當前的驗證碼似乎對機器更友好而對人類更粗魯。

  從科學角度看,目前互聯網驗證碼多是基於人類感知能力(比如圖像識別)、認知能力(比如運算)、行為能力(比如鼠標軌跡)的驗證碼,或者是幾者的複合形式。但隨着機器智能的發展,機器在這些方面都將接近甚至超越人類水平。比如,對於圖像識別驗證碼,一個傳統深度神經網絡模型(如CNN,卷積神經網絡)經稍加訓練就足以破解;基於認知能力的驗證碼近年來也隨着機器認知能力的顯著增長而日益失效;基於用戶行為的驗證碼,本質上也可以通過大量收集人類用戶行為軌跡模擬人類的真實行為軌跡,進而完成破解。

  近年來,ChatGPT等生成式大語言模型的快速發展推動了通用人工智能(AGI)的發展。AGI是指具有高效的學習和泛化能力、能夠根據所處的複雜動態環境自主産生並完成任務的通用人工智能體,具備自主的感知、認知、決策、學習、執行和社會協作等能力,且符合人類情感、倫理與道德觀念。

  換言之,機器的智能水平已經達到甚至超越普通人的認知水平,這將對驗證碼造成致命衝擊。AGI全面侵襲人類社會涉及智力的所有活動,從藝術創作到代碼生成、從問題求解到科學發現、從問答聊天到輔助決策。機器在認知的廣度與深度方面都達到了普通人難以企及的地步。

機器智能正在挑戰人類智能

  如果説人類的智能是人之所以為人、是人類宣示其萬物之靈地位的根本所在,那麼無疑,這一“根本”今天正面臨着來自人工智能前所未有的挑戰。在人類漫長的進化與發展史中,我們似乎不可避免地要見證一個新的智能物種——智能機器的出現。這對人類社會發展而言具有里程碑意義。

  如何在機器智能快速發展的前提下捍衛人類智能的尊嚴,是我們目前尚未找到合理應對方案的問題之一。正是因為AGI所呈現出的認知智能空前強大,且其能力也仍然隨着算力與數據的增長而增長,可以説已經沒有什麼只有普通人類能完成而機器不能完成的認知任務了。這從根本上決定了驗證碼終將在AGI技術面前失效。

  AGI終結驗證碼的根本原因在於:AGI所形成的智能能力恰恰是通過驗證碼所需要的核心能力。曾經有一種常識理解驗證碼,比如問小明紮好紅領巾去上學了,然後問小明最有可能是什麼身份。這類驗證碼的出發點是大多數人類都具備的常識理解能力,在AGI出現之前,人工智能是很難理解這種常識的。常識理解一度被認為是AI難以克服的難題,現在基本上已被大規模生成式語言模型突破了。

  需要注意的是,一般宣稱AGI超越人類智能,是指超越人類的平均水平。我們必須承認人類中的一些精英群體,比如科學家、哲學家等,仍具有AGI難以超越的能力,比如他們跳脫現固有思維框架思考問題的能力。但只要AGI達到普通人的水平,對於驗證碼的威脅就是致命的。因為驗證碼的有效性恰恰在於確保絕大多數普通人能驗證通過,而不是人類中的少數精英才能驗證通過。

2022年5月26日,工作人員在國家大數據(貴州)綜合試驗區展示中心內講解5G人工智能的宣傳短片

  即便我們能偶爾發現機器目前仍然不擅長的某個任務,比如某研究團隊最近就研究發現,機器在偵探類推理等方面似乎還達不到普通人的水平,但實際上AGI能在極短時間內迭代升級從而具備相應能力。因為生成式語言模型是個典型小樣本學習器,這意味着大模型經極少數甚至幾個樣本的調教就能具備解決某個新任務的能力。因此,但凡人類能用言語表達的任務,大模型都終將習得解決相應任務的能力,從而能夠通過相應的驗證碼測試。

  或許會有人想到,人類終究還有情感這類體驗重於表達的任務。那麼能否設計基於情感類的任務來做人機區分呢?

  必須承認,當前的AGI是不具備人類的情感能力的。人類的情感活動最終體現在心理狀態的波動,伴隨着生化反應(所謂快樂時産生多巴胺,緊張時分泌腎上腺激素)。機器顯然不具備人類的這套生理、心理反應機制。但大模型已能夠做到在“形式上”理解情感,並在適當提示下出色地完成各類有“情感”、有“溫度”的任務。比如,當你跟大模型説“我去藥店買藥”,雖然一些大模型常會給出“祝你購物愉快”這種低情商的回答,但是GPT4這類較為領先的大模型基本上會先安慰、關心、問詢,然後再給出建議。雖然它缺乏所謂的真正意義上對人類的關心,但在形式上卻越來越貼“心”。

  最後一種可能是什麼呢?能否利用人類的能力缺陷機制開展人機區分?就好比,對於兩個隨機10位整數的乘法,一毫秒出答案的大概率只能是機器,一般人估計要算個幾分鐘,即便人類尋找外部計算工作,也要若干秒時間。但這一做法的缺陷也很顯見,機器或者機器背後的操控者可以很容易地故意設置一定的時滯,以接近人類的反應。換言之,足夠智能的機器很容易通過降低自己的智能表現水平以達到人機混淆的目的。

人機邊界日益模糊之後

  驗證碼失效背後的深層次問題,是AI的快速發展所帶來的人機邊界日益模糊問題。人工智能的發展歷史本質上就是一部機器越來越像人的歷史,然而反觀人類教育模式,多數仍然停留在傳統階段,培養“標準化”的人。此消彼長造成的結果,是人機邊界模糊。比如使用過ChatGPT的人會深有體會,這類模型最擅長的就是聊天,即便與其長時間聊天,我們可能都不會覺得無趣。

  人機邊界模糊會帶來很多社會問題。

  對於普通民眾,尤其是青少年而言,他們可能會因為相信類似聊天是真實的而沉溺於ChatGPT這類對話模型。而且,隨着這種模型日益智能化,人們可能會更習慣向其提問,並接受它的答案,久而久之,人類的思考能力、探索欲、質疑精神會逐步弱化、喪失。在日益強大的AGI面前,如何避免人類精神本質的退化?這需要人們嚴肅思考並回答。

  當人機真假難辨,虛假身份氾濫,欺詐將會層出不窮。現在已經出現一些新型犯罪,比如不法分子通過AI換臉、AI視頻生成等手段實施欺詐。如何治理由人機邊界模糊帶來的社會性欺騙,已成為一個十分重要的AI治理問題。

  此外,當人機真假難辨,機器侵犯人類的倫理、道德、情感等情形大概率就會出現。比如,最近一些虛擬數字人模擬過世的老人、電影《Her》中人類男子將情感傾訴於機器女友。事實上,智能機器只應該被用作理性的工具,不應染指涉及人類倫理、道德、情感相關事務。AI的情感、倫理與道德類應用應該慎而又慎。

  伴隨着人機邊界模糊問題的另外一個長期問題,是機器的身份認同問題。未來人類將給予智能機器何種身份?智能機器是否只是工具?特別是當機器與人類的關係越來越緊密、認知能力也遠超人類平均水平之後。人類將不得不深度考慮漫長的人機倫理關係重建。

  在這一過程中,法律手段將顯得日益必要。就好比當前法規要求生成式AI必須明確標注機器生成一樣,未來對於每個賬號,法律都應要求該賬號主體明確其人機身份。每個賬號都有義務明確標識自己的身份狀態,是真人、機器抑或是在人的偏好設定下或者授意下的機器代理。確保網絡上任何其他賬號對某個賬號的人機身份有着明確的知情權。明確溝通主體,是人與人溝通的基本前提。

  驗證碼作為一種技術形態或許終將被日益先進的AI所淘汰,但其背後所代表的人機區分、人機關係等根本問題也將逐漸浮出水面,成為AI時代我們必須積極回應的重大問題。新型人機關係的重建剛剛啟程,人類有義務讓這條路的終點通向人機和諧共生的美好未來。

  (作者係復旦大學計算機科學技術學院教授,上海市數據科學重點實驗室主任)

來源:2023年12月13日出版的《環球》雜誌 第25期

《環球》雜誌授權使用,如需轉載,請與本刊&&。

更多內容敬請關注《環球》雜誌官方微博、微信:“環球雜誌”。

手機版