在風起雲湧的“互聯網+”時代,高大上的貴陽數博會是一場大數據盛宴,也是一場“頭腦風暴”,用萬眾矚目來形容並不為過。看看那些參會企業及大佬,真是“亮瞎”人的眼:微軟、谷歌、英特爾、惠普、思科、甲骨文、戴爾、阿里巴巴、富士康、奇虎360、華為、聯想、京東、中興,馬雲、郭臺銘、劉東強、周鴻祎……全球首個數博會,世界精英雲集,他們可不止“來看看”這麼簡單。
目前,大多數人對大數據的概念還停留在:就是海量的數據,PB(1PB=1024TB)級別的,甚至是 EB、ZB 以上的數據,通過對這些數據進行深入分析,就能得出非常有價值的結論,指引企業做出最佳決策。
其實,現在的大數據指的並不僅僅是海量數據,更準確而言是對大數據分析的方法。大數據是從收集的海量數據中,通過演算法將這些來自不同渠道、格式的數據進行直接分析,從中尋找到數據之間的相關性。簡單而言,大數據更偏重于發現,以及猜測/印證的迴圈逼近過程。
IBM的研究稱,整個人類文明所獲得的全部數據中,有90%是過去兩年內産生的。而到了2020年,全世界所産生的數據規模將達到今天的44倍。
每一天,全世界會上傳超過5億張圖片,每分鐘就有20小時時長的視頻被分享。然而,即使是人們每天創造的全部資訊——包括語音通話、電子郵件和資訊在內的各種通信,以及上傳的全部圖片、視頻與音樂,其資訊量也無法匹及每一天所創造出的關于人們自身的數字資訊量。這樣的趨勢會持續下去。