火山引擎10月15日發布了大模型訓練視頻預處理方案,助力解決視頻大模型訓練的成本、質量和性能等方面的技術挑戰。目前,該技術方案已應用於豆包視頻生成模型。
火山引擎總裁譚待&&,在AIGC、多模態等技術的共同推動下,用戶體驗在多個維度上經歷着深刻轉變,基於抖音業務實踐和與行業客戶共創,火山引擎視頻雲正積極探索AI大模型與視頻技術的深度融合,在技術底座、處理鏈路和業務增長層面為企業尋找解法。
據介紹,對訓練視頻進行預處理是保障大模型訓練效果的重要前提。預處理過程可以統一視頻的數據格式、提高數據質量、實現數據標準化、減少數據量以及處理標注信息,從而使模型能更高效地學習視頻中的特徵和知識,提升訓練效果和效率。
抖音集團視頻架構負責人王悅&&,對大模型廠商而言,在上述過程中面臨着諸多挑戰。首先,超大規模視頻訓練數據集導致計算和處理成本激增,其次是視頻樣本數據參差不齊,然後是處理鏈路環節多、工程複雜,最後還面臨着對GPU、CPU、ARM等多種異構算力資源調度部署的難題。

火山引擎此次發布的大模型訓練視頻預處理方案依託於自研的多媒體處理框架BMF,能有效應對模型訓練的算力成本挑戰。此外,該方案還在算法和工程方面進行了調優,可以對海量視頻數據高質量預處理,短時間內實現處理鏈路的高效協同,提高模型訓練效率。值得一提的是,火山引擎本次還發布並開源了移動端後處理解決方案BMF lite版本,支持端側大模型接入和算子加速,更加輕量、通用。
Bytedance Research負責人李航介紹,豆包視頻生成模型PixelDance在訓練過程中採用了火山引擎的大模型訓練視頻預處理方案,充分利用了大量潮汐資源,為模型訓練提供了有力支撐。火山引擎視頻雲團隊提供的點播解決方案還為PixelDance生産的視頻提供了從編輯、上傳、轉碼、分發、播放的全生命周期一站式服務,讓模型的商業化應用有了保障。
據了解,豆包視頻生成模型PixelDance於9月24日發布,該模型採用DiT架構,通過高效的DiT融合計算單元和全新設計的擴散模型訓練方法,突破了多主體運動的複雜交互、多鏡頭切換的內容一致性等難題。目前,豆包視頻生成模型已通過火山引擎面向企業開啟邀測。
與此同時,火山引擎還發布了跨語言同聲復刻直播方案、多模態視頻理解與生成方案、對話式AI實時交互方案和AIG3D&大場景重建方案,從視頻的生産端、交互端到消費端,全鏈路融入了AI能力。
以對話式AI實時交互方案為例,依託豆包大模型和火山引擎視頻雲自研的多項算法,火山引擎為用戶提供了智能對話和自然語言處理的強大能力,可實現毫秒級人聲檢測和打斷響應,以及絲滑穩定的“端到端”響應體驗。
在沉浸式消費體驗方面,火山引擎通過AI生成3D內容和大場景重建方案,為山西高平二郎廟金代戲&和北京正乙祠兩座珍貴的歷史建築生成了3D數字資産,並以虛擬直播間的形式應用於抖音的戲曲直播場景。
大會上,王悅還透露了字節自研視頻編解碼芯片的最新進展,經過抖音集團內部的實踐驗證,該芯片在同等視頻壓縮效率下,成本節省了95%以上,還在2024MSU世界編碼器大賽中一舉奪得最佳ASIC編碼器。該芯片將於近期正式對外開放測試,招募首批種子用戶,共同探索商業價值的可複製性。(記者 李志勇)