AI競逐:應用與治理並行

2026-01-09 14:35:37 來源: 《環球》雜誌

 

2025 年 5 月 22 日,外籍參會代表在第四屆中國-中東歐國家博覽會暨國際消費品博覽會現場與人形機器人互動

文/陳經

編輯/黃紅華

  人工智能(AI)已成為大國科技競爭的主戰場。據了解,全球AI研發投入從2020年的680億美元激增至2025年的2140億美元,年均增長率達26%。

  隨着AI技術的不斷發展,AI産品性能、市場接受程度和信任程度也相應提升,加上商業化環境逐步完善,AI正快速滲透到社會的各個領域。

  不可否認,AI對各行各業都産生了深刻影響,尤其是AI對一些傳統行業已經帶來巨大衝擊。業內人士呼籲,在發展AI技術、産業的同時,對AI的治理也應提上日程,尤其要加強國際合作,確保其安全、可靠、可控。

初步形成兩強主導的格局

  從2025年初開始,AI領域的競逐可謂風起雲涌,尤其是DeepSeek的出現在業內引起巨大反響。它不僅將大模型權重與推理代碼開源,還將訓練相關的底層加速技術都開源。這大幅度降低了技術門檻,使得更多組織和個人能夠參與到人工智能的開發與應用中。這種開放與共享的模式促進了AI技術的全球擴散,推動了AI技術從壟斷性創新向更加民主化、去中心化的創新轉變。

  DeepSeek之後,阿里Qwen、月之暗面Kimi、智譜GLM、MiniMax等公司紛紛加入開源路線。2025年7月Hugging Face開源大模型榜TOP10中,中國佔據9席。

  除此之外,在通用GPU、推理專用GPU、ASIC等技術路線,以及對標CUDA(英偉達推出的通用並行計算架構)的GPU軟硬體生態系統,中國均取得重大突破。如今,中國已初步形成AI算法優化、GPU硬體設計製造、軟體硬生態配合的全産業鏈。

  相比之下,2025年美國公司依靠資金、算力、人才等多方面優勢,不斷推出前沿大模型。2025年7月,白宮發布“人工智能(AI)行動計劃”,將開放權重模型提升為戰略資産。一個月後,OpenAI時隔近6年首次發布採用Apache2.0許可證的開放權重模型。

  與以前OpenAI依靠ChatGPT一枝獨秀不斷推出新産品引領業界發展不同,2025年谷歌的Gemini、Anthropic的Claude、xAI的Grok紛紛推出高水平的新版大模型。美國各類閉源大模型不斷涌現,在最高水平的榜單上,位次和數量都有着較強的競爭力。

  中美以外的國家,如歐洲、東亞、南亞、東南亞多國,一方面對於AI技術的落後感到焦慮,另一方面也借助開源技術積極發展自身的AI産業。如法國Mistral成為歐洲開源標杆,技術路線明顯借鑒DeepSeek的MOE架構。韓國的互聯網巨頭Naver開發了韓語優化的本土語言大模型HyperClova X,專注於韓語語境和文化。同時,韓國政府大力投入“國家AI超算中心”建設,通過提供算力支持本土模型訓練。印度推出“印度AI計劃”,意圖在未來推動本土AI生態系統發展,並通過“數字印度創新基金”資助本土AI研發,打造國家級大模型。非盟作為技術領域的“追趕者”,牽頭推出《非洲人工智能戰略》,目標是到2030年將AI納入非洲各國經濟核心領域,重點推動AI在農業、醫療和教育領域的應用。

  有業內人士指出,未來AI技術競爭可能會發展成美國主導閉源生態、中國主導開源生態、各國主權化小生態並存的格局。

這是2025 年 11 月 3 日拍攝的美國亞馬遜公司旗下的雲計算服務平台(AWS)和美國開放人工智能研究中心(OpenAI)標識

AI應用轉向落地

  雖然2025年AI在大模型方面的進展層出不窮,但業界對於AGI(通用人工智能)的態度明顯變得冷靜,對AGI的實現時間的預期也延長到5到10年乃至更遠。

  這一趨勢讓全球轉向AI應用的熱情明顯上升。實際上,2025年火熱的AI Agent智能體研究,就更突出其應用性特點。因此,2026年很可能是AI應用之年,畢竟全球AI業界已經有能力強大的基礎大模型,能夠結合行業數據、應用經驗,依靠智能體打造工具鏈,在AI編程、白領自動化辦公、工業流程控制等諸多領域推廣應用。

  與基礎大模型研發類似,中美在AI應用中也有明顯的路線差異。美國基於經濟模式,對於“氛圍”編程、辦公自動化、服務業等AI應用更為看重,希望依靠大模型生成的詞元(token)按數量收費創造價值,即所謂的tokenomics(詞元經濟學);而中國的開源路線對於詞元免費或只收取極低費用,更重視實際工業應用與生活場景的生産力提升,如AI與大模型賦能的工業機器人、服務機器人、人形機器人,以規模巨大、種類齊全的製造業體系為基礎,實現新質生産力的“智能化”要求。

  另外,出於對數據安全的要求,主權敘事開始不斷滲透進AI領域。可以預計,未來主權AI應用、工業與生活場景AI應用都是較為確定的方向,到2026年必然會有相當的成果出現。例如,主權AI應用一般基於主權數據、本國語言文化,垂直類應用前景廣闊。而在工業與生活場景,則可借助AI與大模型,有效提高應用效率。

治理問題日益緊迫

  應當指出,AI技術的快速迭代與治理滯後仍存在結構性矛盾,其對全球治理體系可能構成系統性、多維度的顛覆性挑戰。在2025年7月於上海舉行的2025世界人工智能大會上,2018年圖靈獎得主、2024年諾貝爾物理學獎得主傑弗裏·辛頓就&&,AI完全失控的概率在10%到20%之間。

  有觀點認為,當前對AI失控的擔憂存在誇大之嫌。例如同為2018年圖靈獎得主,美國Meta公司前首席AI科學家楊立昆就認為,“AI將接管世界”的想法很大程度上是“人類將自身的行為模式投射到了機器上”。他&&,那些擔心風險的人往往是因為“尚未找到實現AI安全的可行路徑”。

  儘管存在不同聲音,但AI“失控”已非科幻想象,而是一個“真實存在”的風險。

  2025年,非營利組織“生命未來研究所”發起公開信,再次呼籲在獲得“廣泛的科學共識(證明其能被安全可控地完成)和強烈的公眾支持”之前,應該明確禁止超級智能的開發。與此同時,即便不是着眼於“超級智能”,隨着AI應用的領域不斷拓展,更多人呼籲進行審慎的監管與治理。

  事實上,之所以有人認為AI與大模型“不可控”,主要是AI技術門檻的降低對模型安全帶來了前所未有的新挑戰。這些模型廣泛應用於全球範圍,面臨着來自網絡攻擊、數據洩露、惡意利用等多方面的安全威脅。同時,AI進一步拓展了人工智能的應用場景,也為跨國犯罪、恐怖組織等利用AI技術提供了可能。在此背景下,各國迫切需要建立更加精確和高效的安全框架,以確保AI技術的安全使用,同時防範數據被濫用和隱私洩露。

  業內人士指出,對於大模型,應優化風險評估與分級管理機制;對於數據,應加強對敏感信息、生物識別信息的分類保護;對於參與主體,則需進一步明確AI研發者、提供者、使用者的權利與義務,同時暢通公眾參與渠道,以社會監督彌補政府監管盲區。

  AI治理是一個全球性難題,單靠一兩個國家很難實現,國家合作已經成為業內的共識。據了解,聯合國已於2025年8月宣布設立獨立國際人工智能科學小組與全球人工智能治理對話機制,以促進人工智能治理領域的國際合作。

  (作者係風雲學會副會長、亞洲視覺科技研發總監)

手機版