
2022年1月5日,在美國拉斯維加斯消費電子展上,人們試用自動駕駛船技術
如果能在100毫秒內,把記錄一個人每時每刻行為的數據傳輸到雲端並處理完畢,那麼元宇宙的爆發點也就來臨了。
沈旸
2022年1月5日,在一年一度的美國拉斯維加斯消費電子展(CES)上,英偉達公司發布了正式版本的開源&&Omniverse。Omniverse是英偉達為科學研究、模擬倣真、內容創作等構建的雲&&,用戶可以在其共享的虛擬空間中實時協同工作。Omniverse也因此被稱為“工程師的元宇宙”。
與2020年發布的測試版、2021年發布的付費企業版相比,如今的Omniverse將向全球數百萬個人創作者免費開放。
近來,“元宇宙”的概念常常引發IT圈對於既有概念的爭論:什麼是數字化?什麼是數字化轉型?之前的信息化是不是過時了?最近幾年出現數字中&、數字孿生、數據湖這些概念後,傳統的ERP(企業資源計劃)系統是不是該被業務中&替代了?
要想從這些紛繁蕪雜的概念中跳脫出來,從更本質的角度去理解“數字化”,不妨找一個純粹的數字化場景。
電影《黑客帝國》《西部世界》《失控玩家》展示了人類生活在數字世界裏的可能形態。其中《西部世界》提供了一個走向元宇宙的技術方法——觀察一個人,把他看到、聽到、觸摸到、感受到的一切,都用AI一遍又一遍地模擬,直到誤差為零。
這樣的方法,在智能汽車自動駕駛領域其實已經有了一些實踐。比如有些智能汽車的開發者一開始就是把程序放在GTA(《俠盜獵車手》)游戲中去訓練的,也有些智能汽車對AI的訓練過程是通過攝像頭不斷觀察周邊環境,並記錄人類的操作,同時不斷地與AI自己的判斷進行比較,直到AI最終也能通過有限的信息去駕駛汽車。
大數據的訓練可以讓AI迭代速度非常快,而且車也是一個相對標準的操作對象。因此,如果全世界所有駕駛員都在教AI怎樣開車,自動駕駛的落地速度會非常快,哪怕只是依靠攝像頭。
那麼,説到元宇宙,它落地需要一些什麼樣的技術呢?
4G普及後,視頻和短視頻的普及速度非常快。今天,許多人在搜索信息時,會從文本&&轉向短視頻&&。因為視頻提供了一個更加真實的場景,其信息損失和偏差比文字要小得多。
以視頻為例,如果AI需要運用一個人的所有數據來做訓練,那它需要多大的數據量?成本有多高?如果本地無法處理,是否可以在雲上計算這些數據呢?這個問題要考慮如下參數:
第一個參數是分辨率。人眼的分辨率大概是5億像素,這並不是一個高不可及的參數,現在的手機已經出現1億像素的攝像頭了,基本上能達到要求。
第二個參數是刷新率。人眼對於120赫茲以上的刷新率是幾乎察覺不到變化的。電影24幀不會讓人覺得卡頓,玩射擊游戲的電競屏做到144~240赫茲基本上就可以滿足人的要求。人類對世界並不需要一個連續的採樣,只要有限的數據就可以滿足人的感官。
最後一個參數是延遲。人接收信息並做出反應需要多長時間?網上有一些簡單的程序能給人做測試,比如一個紅色的頁面,指示人在頁面變綠時按下鼠標。人類的平均反應時間大概為200~250毫秒。大腦的反應慢一點,如果是經過小腦,反應速度會快一點,那也叫下意識的動作。假設人的極限反應時間是100毫秒,如果AI能在自動駕駛時把判斷和操作控制在100毫秒以內,那它的速度是快於大部分人類的。
做技術的人都非常關注成本,成本是決定一個技術能否普及的關鍵。成本可以通過一個簡單的例子來探討——假如用iPhone視頻記錄一個人的一生,成本大概是多少?
每分鐘的視頻文件大小為375MB,每TB的磁盤成本為750元,100年的記錄成本大約是388萬元——這並不是一個天文數字。如果這個成本能降到10萬元以內,相信一些人會有興趣把自己的一生記錄下來。畢竟,這個數字化的人生會更容易讓後人記住。
現在人們有時候會覺得AI比較弱智,很多問題它都不懂,也無法回答準確,主要還是因為AI的數據積累還不夠,AI缺少完整連續的數據和偏差糾正。如果擁有一個人一生的視頻記錄,AI就足以讀懂一個人,並在100毫秒內做出那個人該有的反應。屆時,用AI來模擬人類的行為,就變得非常現實了。
不過,元宇宙的落地並不能簡單地依賴視頻存儲和計算成本的下降。從技術的角度來講,視頻並不是元宇宙最優的數據結構,因為它不好做分析,也不適合做數據共享。跟視頻比起來,類似於虛幻引擎5(EPIC公司公布的第五代游戲引擎Unreal Engine 5)這樣的數字孿生模型可能會更合適。比如在公園裏拍視頻,一萬個游客可能會製作出一萬個視頻,文件非常大。但如果將公園製作成虛幻引擎模型,大家就可以共用一個模型來製作自己的故事,就跟電影《西部世界》裏呈現的那樣,每個人都能在同一個場景裏活出不同的故事。游客可以通過各種不同的虛擬攝像機機位去體驗,這樣就大幅降低了製作成本。視頻與虛幻引擎相比,大致相當於Hadoop(一種分佈式系統基礎架構)跟TiDB(一種開源分佈式關係型數據庫)或OceanBase(一種企業級分佈式關係數據庫)的對比,結構化的數據更容易做分析和處理。
今天,游戲引擎打造的視頻已經可以以假亂真了。2021年8月,英偉達在計算機圖形學頂級會議SIGGRAPH 2021上通過一部紀錄片自曝:在2021年4月英偉達發布會的視頻中,有14秒的時間,“黃仁勳”不是真人,而是英偉達利用Omniverse打造的數字人。
當技術進一步提升,成本進一步下降,在虛擬場景中製造視頻的成本將會低於人類拍攝並製作視頻的成本。那時,記錄人的一生其實也不需要那麼大的數據量,因為大部分背景都是虛擬&&上公共的場景。如果能在100毫秒內,把記錄一個人每時每刻行為的數據傳輸到雲端並處理完畢,那麼元宇宙的爆發點也就來臨了。
(作者係神州數碼集團副總裁、首席信息官)
來源:2022年1月12日出版的《環球》雜誌 第1期
《環球》雜誌授權使用,其他媒體如需轉載,請與本刊&&
本期更多文章敬請關注《環球》雜誌微博、微信客戶端:“環球雜誌”
|