Insert title here
左側導航欄
  • 論壇聲明:本帖由網友上傳,只代表網友個人觀點,轉帖請注明作者及出處。

要像人類一樣聰明 AI先得突破算力極限

  • susieqq
  • 等級:新手上路
  • 經驗值:48
  • 積分:
  • 0
  • 33598
  • 2020-01-18 09:37:31

  算法、數據和算力被視為推動人工智能發展的三大要素,其中算力更是被形容為支撐人工智能走向應用的“發動機”。人工智能研究組織OpenAI最近指出,“高級人工智能所需的計算能力每三個半月就會翻一番”。

  近日,臉譜(Facebook)人工智能副總裁傑羅姆佩森蒂在接受《連線》雜志採訪時認為,AI科研成本的持續上漲,或導致我們在該領域的研究碰壁,現在已經到了一個需要從成本效益等方面考慮的地步,我們需要清楚如何從現有的計算力中獲得最大的收益。

  那麼,為何人工智能需要如此強大的計算能力?計算能力是否會限制人工智能的發展?我們能否不斷滿足人工智能持續擴大的計算需求?


人工智能“動腦” 背後算力消耗驚人


  “2016年3月,谷歌人工智能阿爾法圍棋(AlphaGo)戰勝韓國棋手李世石時,人們慨嘆人工智能的強大,而其背後巨大的‘付出’卻鮮為人知——數千臺服務器、上千塊CPU、高性能顯卡以及對弈一場棋所消耗的驚人電量。”遠望智庫人工智能事業部部長、圖靈機器人首席戰略官譚茗洲在接受科技日報記者採訪時表示。

  “相比雲計算和大數據等應用,人工智能對計算力的需求幾乎無止境。”中國工程院院士、浪潮集團首席科學家王恩東指出。

  據介紹,人工智能最大的挑戰之一是識別度不高、準確度不高,提高準確度就要提高模型的規模和精細度,提高線下訓練的頻次,這需要更強的計算力。準確度也是算出來的,比如大型互聯網公司或者知名人工智能創業公司,有能力部署規模比較大的人工智能計算平臺,算法的模型已經達到千億參數、萬億的訓練數據集規模。

  “現在人工智能運用的深度學習框架,多數依賴大數據進行科研訓練,形成有效模型,這些都需要較高的計算力。”譚茗洲指出,當前隨著人工智能算法模型的復雜度和精度愈來愈高,互聯網和物聯網産生的數據呈幾何倍數增長,在數據量和算法模型的雙層疊加下,人工智能對計算的需求越來越大。無疑,人工智能走向深度學習,計算力已成為評價人工智能研究成本的重要指標。可以説,計算力即是生産力。


數據搬運頻繁 “內存墻”問題凸顯


  人工智能為何如此耗費算力?具體而言,在經典的馮諾伊曼計算機架構中,存儲單元和計算單元涇渭分明。運算時,需要將數據從存儲單元讀取到計算單元,運算後會把結果寫回存儲單元。在大數據驅動的人工智能時代,AI運算中數據搬運更加頻繁,需要存儲和處理的數據量遠遠大于之前常見的應用。當運算能力達到一定程度,由于訪問存儲器的速度無法跟上運算部件消耗數據的速度,因此再增加運算部件也無法得到充分利用,就形成了所謂的馮諾伊曼“瓶頸”或“內存墻”問題。這就如同一臺馬力強勁的發動機,卻因為輸油管的狹小而無法産生應有的動力。

  顯然,頻繁的數據搬運導致的算力瓶頸,已經成為對更為先進算法探索的限制因素。而算力瓶頸對更先進、復雜度更高的AI模型的研究將産生更大影響。

  王恩東曾指出:“計算力的提升對體係結構提出挑戰。在半導體技術逐步接近極限的情況下,計算機發展迎來體係結構創新的黃金期,計算力的提升將更多通過體係結構創新來滿足。”

  據了解,最先進的自然語言處理模型XLNet約有4億模型參數。據估算,人腦中細胞間互聯軸突個數在百萬億到千萬億數量級。顯然AI在認知問題上離我們追求的所謂通用人工智能還有巨大差距,而要達到通用人工智能的水平,預計研究所需要的計算能力和計算係統的能源效率將比現在至少提高幾個數量級。因此人工智能要進一步突破,必須採用新的計算架構,解決存儲單元和計算單元分離帶來的算力瓶頸。

  譚茗洲説,目前人工智能的無用計算較多。現在人工智能還像不斷灌水一樣,處在輸入數據、調整參數的階段,是個“黑盒子”模式,特別在圖片視頻方面消耗很多能量,而其中真正的有效計算卻不多,非常浪費能源。今後AI有待在“可解釋性”上進行突破,搞清是什麼原因導致後面的結果,這樣可以精準運用數據和算力,大大減少運算量。這也是目前重要的研究課題,將大大推動深度學習的發展。


計算儲存一體化 或成下一代係統入口


  “雖然目前階段計算力還談不上限制人工智能的發展,但計算力確實提高了參與人工智能研究的門檻。”譚茗洲指出。

  除了研發資金的增長,在計算力爆發之前的很長一段時間,産生數據的場景隨著互聯網的發展滲透到生活、生産的各個角落,並且隨著通訊技術的進步,尤其是5G的商用,使得産生數據的基礎場景覆蓋面和深度達到新的層次,數據的生産也將達到一個新的數量級。

  2020年伊始,阿裏達摩院發布《2020十大科技趨勢》報告顯示,在人工智能方面,計算存儲一體化,類似于人腦,將數據存儲單元和計算單元融為一體,能顯著減少數據搬運,極大提高計算並行度和能效。

  然而,計算存儲一體化的研究無法一蹴而就。這個報告提出策略,對于廣義上計算存儲一體化計算架構的發展,近期策略的關鍵在于通過芯片設計、集成、封裝技術拉近存儲單元與計算單元的距離,增加帶寬,降低數據搬運的代價,緩解由于數據搬運産生的瓶頸;中期規劃是通過架構方面的創新,設存儲器于計算單元中或者置計算單元于存儲模塊內,可以實現計算和存儲你中有我,我中有你;遠期展望是通過器件層面的創新,實現器件既是存儲單元也是計算單元,不分彼此,融為一體,成為真正的計算存儲一體化。近年來,一些新型非易失存儲器,如阻變內存,顯示了一定的計算存儲融合的潛力。

  據介紹,計算存儲一體化正在助力、推動算法升級,成為下一代AI係統的入口。存內計算提供的大規模更高效的算力,使得AI算法設計有更充分的想象力,不再受到算力約束。從而將硬件上的先進性,升級為係統、算法的領先優勢,最終加速孵化新業務。

  而除了計算存儲一體化的趨勢,量子計算或是解決AI所需巨額算力的另一途徑。目前量子計算機的發展已經超越傳統計算機的摩爾定律,以傳統計算機的計算能力為基本參考,量子計算機的算力正迅速發展。

  譚茗洲表示,未來人工智能的突破,除了不斷提升技術本身之外,還需要全球各國協同創新,融合發展,探索新的合作模式,如採取共享思維,調動世界各方面的計算資源集中發力,以降低計算的巨大成本。

(來源:科技日報)

點讚


  • 分享到
    謝謝您的閱讀, 您是本文第 33598 個閱覽者

網友回復

單張最大不超過1M!