新華網北京4月25日電(記者孫晶) "這就是當前數字安全最大的隱患。"在清華科技園的一間明亮辦公室裏,瑞萊智慧創始人兼CEO田天指着屏幕上一段看似普通的視頻對記者説道。畫面中,一名年輕人正對着手機攝像頭眨眼、張嘴、點頭——這些本應是驗證"真人在場"的動作,卻可能成為AI時代最脆弱的安全環節。"傳統身份驗證系統輕易就被AI合成技術攻破,"他進一步解釋,"黑産已能通過高清顯示屏播放合成視頻,輕鬆騙過銀行的人臉識別系統。"
瑞萊智慧創始人兼CEO田天
這不是科幻電影中的橋段,而是當下各類需要高安防的機構面臨的真實挑戰。作為中國最早聚焦AI安全的創業公司之一,瑞萊智慧從清華大學人工智能研究院孵化而出,致力於在人工智能落地過程中構築安全防線。
被忽視的"前置安全"
與傳統網絡安全領域不同,田天強調AI安全必須前置。"安全在傳統領域往往是後置的——只要沒有人攻擊你,你甚至感受不到安全的重要性。但AI完全不同,安全是使用的前提條件。安全是‘1’,其他的才是後面的‘0’。"他解釋道,"沒有足夠的安全保障,AI根本無法發揮作用。"
2024年7月31日,在第十二屆互聯網安全大會上,中國工程院吳世忠院士做了“對生成式AI安全研究的九點觀察”的報告中顯示,隨着生成式AI的興起,安全研究嚴重滯後於技術創新,特別是Transformer模型和預訓練大模型時代,這種滯後現象尤為突出。
2025年2月,在巴黎舉行的人工智能行動峰會(AI Action Summit)上,包括法國、中國、印度、日本、澳大利亞和加拿大等在內的61個國家簽署了一項強調人工智能應當是"開放、包容、透明、合乎道德、安全、可靠和值得信賴的"聯合聲明,唯獨美國和英國拒絕簽字,凸顯了國際社會在AI安全治理上的分歧。
田天將AI安全分為三個層次:AI自身的可控性問題、AI濫用問題和AGI(通用人工智能)安全問題。
"第一個層次是AI自身的可靠性,比如大模型的幻覺問題,這直接影響應用效果。第二層次是濫用風險,AI可以被用於造謠、詐騙,尤其是隨着生成技術的普及。"田天解釋道,"第三個層次是更前瞻性的AGI安全問題,雖然現在AGI還未實現,但必須前置考慮,因為一旦失控,可能無法挽回。"
田天特別強調自動駕駛系統作為AI自身可控性問題的典型案例:"在常規道路和高速公路上,自動駕駛系統表現得很好,但在面對特殊場景或對抗環境時就會出現問題。如果有人故意製作一些不常見的圖案去誤導算法,自動駕駛相關的算法往往表現不足。這種對抗環境下的安全隱患,嚴重制約了AI技術在關鍵領域的落地應用。"
對於濫用風險,田天提供了更具體的場景:"現在技術完全可以實現用AI去合成一段地震或海嘯的視頻,對不明真相的人來説很可能信以為真。同樣,AI也可以被用來偽裝成他人身份,包括你信任的親友甚至老闆身份,進行詐騙活動。這種濫用已經以實際案例證明,並帶來了對社會秩序的嚴重危害。如何限制這種濫用,是當下AI倫理安全面臨的緊迫挑戰。"
內容氾濫時代的真實性挑戰
在田天看來,AI生成內容將徹底改變互聯網生態。"不久的將來,互聯網上絕大多數內容都將是AI合成的。"他預測,"AI生成一篇文章、一段視頻的速度和效率遠超人類。這會帶來巨大的信息真實性挑戰。"
這一預測已有跡象顯現。根據吳世忠院士的研究,僅2023一年,基於深度偽造的詐騙暴增3000%,釣魚郵件增長了1000%。根據Regula公司2024年9月發布的調查顯示,全球49%的企業受到音頻和視頻詐騙的攻擊。微軟AI紅隊也報告稱,傳統安全基準無法檢測AI特有的説服、誘導、心理操控等能力,這需要全新的危害發現框架。
"我們必須開發能夠區分AI生成內容的技術,建立新的內容真實性驗證機制。"田天&&,"這不僅是技術問題,也關乎社會信任體系的重建。" 他認為面對這一挑戰,人工干預難以奏效。"隨着AI合成技術的發展,僅靠人眼已無法區分真偽內容。對普通用戶來説,教育他們分辨AI合成內容已經不現實,因為AI技術實在太強大。幾年前我們還建議人們通過要求對方做誇張表情或觸摸臉部來識別視頻真偽,但現在這些方法已經完全失效。"田天強調,未來的解決方案很可能是"AI對抗AI"——"我們需要為每個終端、每個使用場景提供AI輔助鑒別工具,無論是瀏覽器、手機還是視頻會議系統,都需要實時分析判斷內容真假,增強人類辨別能力。只有通過將AI技術本身用於識別和防範,才能在這個充斥AI生成內容的時代重建信息可信度。"
田天認為,中國在AI發展理念上展現出非常強的先進性。"中國在AI各個發展階段,包括深度學習、自動駕駛和大模型階段,都很早就&&了相關法律法規和標準規範,給從業者提供了明確指引。"他説,"這些指引不僅告訴行業哪些事可以做,哪些不可以做,還為AI的安全落地提供了框架。"他説。
談到AI安全的全球格局,田天認為中國有機會做出獨特貢獻。"中國既重視AI的前沿創新,又有龐大的應用場景和實踐經驗。我們可以通過大量實踐,總結出一套更安全可控的AI落地解決方案。"
這種觀點呼應了吳世忠院士的AI安全治理的觀察。目前,AI安全研究主要涉及四個方向:理論研究、技術研究、政策和倫理研究以及實際應用研究。其中,"對抗攻擊研究"成為安全研究的熱點,而"RLHF和強化學習"則在安全對齊方向發揮關鍵作用。
Regula公司的調查也揭示了各行業和地區企業在應對深度偽造威脅方面的經驗差異。例如,在金融服務、航空和加密貨幣這三個受訪行業中,音頻深度偽造的威脅比視頻深度偽造的威脅更大。與此同時,執法部門、科技行業和金融科技行業報告的面部視頻詐騙數量更多。
瑞萊智慧的核心産品之一是針對金融領域的"人臉防火墻",能有效攔截AI合成的欺詐嘗試。"金融領域對安全性要求極高,一旦出問題,會帶來直接的經濟損失。"田天説,"尤其是生成式AI出現後,傳統安全系統面臨前所未有的挑戰。"
展望未來:把握安全與創新的平衡
創立瑞萊智慧的決定源於清華大學人工智能領域的研究積累。"2018年,我們看到AI可控性和安全性需求日益迫切,尤其是在自動駕駛等關鍵領域。"他回憶道,"當時選擇這個方向並不是市場最熱的,但我們堅信這是未來的必然需求。"
面對AI領域的高度不確定性,田天的應對之道是快速迭代和堅守初心。"在AI這個領域,你不可能等一年再復盤調整,必須更短周期地評估和調整。儘管這很辛苦,但必不可少。"
"與傳統項目不同,AI創業面臨的不確定性是多維度的。"田天進一步解釋,"技術路徑有無數條,短期效果不等同於長期價值,很多決策的好壞在短期內難以判斷。比如大模型爆發出如此強大的力量,我相信業內絕大多數人都沒能預測到它會在這個時間點出現。這種技術的不確定性,加上商業化、研發和産品路徑的高度不確定性,使得保持競爭優勢變得極具挑戰。"
談到創業初心,田天流露出對技術應用的熱忱:"我選擇創業的本質驅動力,是希望將AI安全研究從紙面變為現實。作為研究者,我有強烈願望把研究成果和行業判斷真正落到實處。AI浪潮帶來了巨大的社會變革機遇,所有人都站在同一起跑線上,不管是大廠還是創業團隊,都有公平的機會。就像上一代互聯網浪潮一樣,很多公司能在短時間內快速成長。我相信AI時代同樣充滿這樣的可能性。"
當被問及如何看待AI安全與創新之間的“矛與盾”關係時,田天&&,"我們不能因為當前AI存在安全隱患就一棒子打死它。關鍵是明確認識當前安全邊界,知道哪些領域足夠安全,哪些領域還不夠安全。"
這種觀點也反映了全球AI發展的趨勢——從"野蠻生長"轉向"負責任發展"。中國陸續&&了《互聯網信息服務深度合成管理規定》、《生成式人工智能服務管理暫行辦法》等一系列法規,構建了從産品研發、內容生成到市場應用的全流程監管框架。與此同時,歐盟通過了被稱為全球首個綜合性AI監管框架的《人工智能法案》,對高風險AI系統提出了嚴格要求,並禁止特定高風險應用場景。這些舉措標誌着負責任的AI發展已成為國際共識。
田天相信,國際合作機制對AI安全至關重要。"不僅是政府層面,産業界和研究機構也需要加強合作,達成共識。"他説,"中國在AI安全方面已有很多經驗和方案,未來可以推向全球,造福其他國家。"
採訪結束時,田天再次強調了AI安全的前置性:"其他技術可能是先發展後考慮安全,但AI必須將安全放在第一位。只有確保安全可控,才能真正釋放AI的潛力,讓大家都能受益。"
在AI技術與應用迅猛發展的當下,瑞萊智慧這樣專注安全的企業正扮演着越來越重要的角色——不是為了限制創新,而是為了確保創新在正確的軌道上前進。正如田天所言,這既是商業機遇,也是社會責任,更是構建人類與AI和諧共存的必要保障。(完)