“AI的技術和發展在端側進一步得到了快速釋放,我們認為端側生成式AI的時代已經到來。”近日,此芯科技創始人、CEO孫文劍在公司AI PC戰略暨首款芯片發布會上&&。
AI PC帶來投資新熱潮?
2016年,Google的Alpha Go帶領AI進入深度學習的1.0時代,計算機視覺和自然語言處理得到了應用和發展;2022年OpenAI的ChatGPT將AI引領到深度學習2.0時代,生成式AI快速發展。
如今,用戶對於能效、數據隱私、個性化的需求越來越多,孫文劍認為,端側的設備將充當重要的錨點。端側智能設備非常豐富,包括PC、手機、車載以及未來的元宇宙、機器人等。其中,PC作為一個重要的生産工具、學習工具、娛樂工具,在人們的工作、生活當中扮演了不可或缺的角色,可以説是人類過去40年最重要的發明之一。
PC産業經歷了很多爆發式發展的時刻:20世紀90年代初,從命令行到圖形界面,讓PC快速在人類社會中得以普及,PC産業迎來了第一波小高潮。隨後,PC融合了互聯網,PC成為人與人、人與虛擬世界之間交互的橋梁,PC産業再次迎來快速發展,電子政務、互聯網金融等一系列PC與互聯網融合的應用應運而生。
到了2024年,有人認為端側AI爆發的元年來臨了。這一年,華為在鴻蒙生態春季溝通會上發布了MateBook XPro,首次應用了華為盤古大模型;榮耀發布了首款AI PC産品MagicBook Pro 16;聯想舉辦了“AI for All,讓世界充滿AI”發布會,更新了AI相關業務;微軟髮布了新一代Copilot+PC;蘋果在2024全球開發者大會(WWDC2024)上宣布了其人工智能計劃,為用戶提供個性化的智能助手體驗。
麒麟軟體副總經理朱晨在此芯科技AI PC戰略暨首款芯片發布會上&&:“前兩年大家看統計報告會很焦慮,PC的出貨量連續下降,好幾年都不見起色。但是近兩三個季度PC的出貨量在不斷上漲,其原因就是因為AI PC的概念出現了。”
國際數據公司(IDC)日前發布的報告顯示,2024年第二季度全球PC出貨量達到6490萬台,同比增長3%。這是全球傳統PC市場在連續七個季度下滑後,今年內實現的第二個季度正增長。IDC認為,這主要得益於AI PC的興起和企業商用更新周期。
“我覺得AI,尤其生成式AI給PC産業的應用生態打開了一扇窗。這是AI芯片第一次融入到主板,賦予每個應用搭載AI的機會,各種各樣的創新將誕生。”朱晨認為,“我相信AI PC的出現,不管對國內還是國際的PC産業都將迎來新一輪的投資熱潮。”
生成式AI對芯片提出更高要求
對於AI PC的定義,每個科技巨頭的定義都不盡相同,但芯片無疑是最核心的部分。去年9月,英特爾CEO帕特·基辛格在硅谷提出了AI PC的概念,並在去年年底推出的酷睿Ultra系列處理器中首次集成NPU。今年6月,英特爾又正式公布代號為“Lunar Lake”的下一代移動處理器,集成了全新的第四代NPU內核,能夠提供48 TOPS的AI算力。
今年5月,微軟髮布了“有史以來速度最快、最智能的 Windows PC”Copilot+PC這一全新AI PC品類,微軟劃定的標準是,每台Copilot +PC都需要一個至少能夠處理40TOPS的NPU。
AMD認為AI PC應該是CPU、GPU和NPU的結合,AMD在去年給Ryzen Mobile 7040系列處理器的部分型號配置了NPU,能提供最高10TOPS的算力。今年6月,AMD又發布了其第三代AI PC處理器:銳龍AI 300系列,NPU部分則升級到全新的AMD XDNA 2架構,與上代相比,AI 處理能力上升3倍,達到了50 TOPS。
高通近年來一直在耕耘ARM PC,去年10月就向桌面&&推出了驍龍X Elite系列處理器,這款處理器最大的亮點在於其NPU算力達到45 TOPS。
本次此芯科技發布的P1芯片作為國産新一代AI PC算力底座,內置了12核CPU,10核GPU以及30TOPS算力NPU,此芯科技聯合創始人、系統工程副總裁褚染洲介紹:“P1芯片已經基本滿足大部分的需求,若還不夠的話,此芯&&可以通過PCIE Gen4擴展的獨立GPU和獨立NPU來進一步提升異構算力,沒有天花板,這是我們的優勢。”
生成式AI在對硬體提出更高要求的同時,也對其算力、能效以及軟硬體協同等方面提出了新要求,結合各種算力單元的算力底座成為關鍵。孫文劍&&:“三年前我們在做産品定義的時候,就把PC當成我們的主場景,利用AI技術打造新一代的算力方案。我們也在思路上逐步形成了新一代AI PC算力底座的五大特徵。”
孫文劍提到的第一個特徵就是異構,可以充分利用不同算力引擎的優勢,為算力底座打造高性能的基礎設施中心。第二個是高能效,端側的算力底座不同於數據中心的算力底座,對於算力方案能效比有比較大的容忍度;端側用戶對於産品的便攜性和待機時長、工作時長有更高的要求,所以算力底座需要借助一切低功耗設計手段,讓算力底座變得更加高效。第三個是生態,算力底座不僅僅是一個芯片,一定要融合操作系統、大模型對軟體進行適配,構建豐富的軟硬體開放系統,而在硬體上面也要結合電源管理芯片、存儲芯片,最終形成一個完整的生態,賦能開發者。第四個是端雲融合,人工智能發展的大趨勢是端雲混合的人工智能,作為終端的算力底座在發揮本土優勢的同時一定要考慮如何與雲端進行更靈活的融合,讓用戶基於端雲一體的算力方案來解決自己生産、工作當中的問題。第五個是安全,不管作為個體用戶自己的數據,還是作為企業的銷售、財務的數據,都需要在算力底座層面乃至軟硬體層面得到有效的安全保障。
生成式AI在端側跑起來仍不簡單
隨着AI的快速發展,應用場景也在百花齊放,可以幫助用戶管理PC上面的文檔、圖片、視頻、郵件,以及更多格式的文件,幫助用戶快速上手、高效使用PC上的各種功能,根據不同使用場景自動調節PC性能……但方便快捷的背後,是海量文件的解析、推理和數據維護工作,AI PC仍然面臨着許多挑戰。
“對操作系統來講,生成式AI能在端側跑起來,不是一件簡單的事情。”朱晨&&,目前很多模型、算力芯片或者框架是煙囪式全耦合結構,應用軟體使用不順可以卸載更換,但要換一個本地大模型卻並不容易。而且為了實現不同功能,可能需要搭載多個大模型,“文生文、文生代碼、文生圖可能需要3個不同的模型,需要3個不同的煙囪式全耦合結構,機器都裝不下這些模型了。”
因此對於操作系統而言,想做好端側生成式AI,就要提供一個公共、開放的&&,讓最終用戶自由選擇模型,在操作系統上面像軟硬體解耦一樣,實現模型、硬體和應用之間的三層解耦。
聯想集團首席研究員顏毅強也認為:“目前來説,需要做好中間軟體層的工作,才能徹底把算法、模型跟應用的開發者做解耦,這層解耦做完以後,我們所有的開發者,而不是僅僅在做NPU或者是做模型的這些人,才能在NPU上部署一個大模型,所有人都能有利用大模型能力。”
此外,限於規模定律(Scaling Law),AI PC搭載的模型尺寸通常在10B以下,能力受到了一定的限制。“在一些複雜生成類的場景,如文生視頻或者是大尺寸文生圖時,本地的模型能力可能滿足不了需求,所以雲端結合在今天以及可預見的兩三年裏,還是一個很重要的話題。”顏毅強説道。