
大數據處理:百分點實時計算架構和算法
當今時代,數據不再昂貴,但從海量數據中獲取價值變得昂貴,而要及時獲取價值則更加昂貴,這正是大數據實時計算越來越流行的原因。以百分點公司為例,在高峰期每秒鐘會有近萬HTTP請求發送到百分點服務器上,這些請求包含了用戶行為和個性化推薦請求。如何從這些數據中快速挖掘用戶興趣偏好并作出效果不錯的推薦呢?這是百分點推薦引擎面臨的首要問題。本文將從系統架構和算法兩方面全介紹百分點公司在實時計算方面的經驗和心得體會,供讀者參考。
a) 實時計算架構
圖 1百分點大數據平臺原理示意圖
工欲善其事,必先利其器。一個穩定可靠且高效的底層架構是實時計算的必要基礎。圖 1給出了百分點數據大平臺的總體框架,如圖所示,大數據平臺包含數據存儲和數據處理兩個層次。
存儲服務層提供了數據處理層需要的各類分布式存儲,包括分布式文件系統(Hadoop HDFS)、分布式SQL數據庫(MySQL)、分布式NoSQL數據庫(Redis、MongoDB、HBase)、分布式消息隊列(Apache Kafka)、分布式搜索引擎(Apache Solr)以及必不可少的Apache Zookeeper。
數據處理層由四個部分組成。其中Web應用云包含了所有直接面對用戶的Web服務,每個Web應用都會產生Web日志以及其他實時數據,這些數據一方面會及時交由實時計算框架進行處理,另一方面也會定期同步至離線計算框架;實時計算框架會處理接收到的實時數據,并將處理結果輸出到數據查詢框架或者離線計算框架;離線計算框架則定期對數據進行處理,并將處理結果輸出至數據查詢框架;數據查詢框架提供了一系列應用接口供程序調取需要的各項數據,同時提供了一些Web工具幫助業務人員對海量數據進行統計、匯總和分析。
在百分點大數據平臺中,與實時計算密切相關的有實時計算框架和數據查詢框架,這部分的組件架構和數據流如圖 2所示。
圖 2實時計算框架和數據查詢框架示意
從圖上可以看出,數據采集服務會將收集到的實時數據推送到消息隊列Kafka中;Kafka中的數據會被兩個處理平臺BDM CEP(Big Data Management Complex Event Processing)和Storm消費并處理。Storm是當下比較流行的開源流處理框架,百分點公司在2013年中開始使用Storm進行數據清洗、統計和一部分分析任務。在引入Storm之前,百分點所有的實時計算都是基于BDM CEP進行的,它是我們基于中間件ICE開發的一套流處理平臺。BDM CEP包含有四類組件:dispatcher負責從Kafka中讀取消息,根據消息內容分發給相應的worker;worker復雜處理接收到的消息,并將處理結果傳遞給其他worker或者輸出到各類存儲服務中;config負責維護dispatcher和worker的交互關系和配置信息,并在交互關系或配置更新時及時通知dispatcher和worker;monitor負責監控dispatcher和worker的運行情況,把監控信息提交給Ganglia,monitor還負責系統異常時的報警,以及dispatcher和worker發生故障時進行重啟和遷移。數據查詢框架由圖中最下層的三個組件組成,其中BDM DS(Data Source)封裝了一系列的數據查詢邏輯并以REST API和ICE服務的形式供各種應用調用;BDM OLAP(Online Analytical Processing)提供了實時查詢用戶行為和標簽明細,以及近實時的用戶多維度統計、匯總和分析功能,這些功能是以REST API和Web應用方式提供的;BDM Search是對Solr和HBase的一次封裝,以REST API和ICE服務方式對外提供近實時搜索功能。
百分點公司的主要服務都是運行在這套架構上的,它擁有良好的穩定性和擴展性,一般來說只需要增加水平擴展結點即可提高數據處理能力,這為百分點業務的穩定發展奠定了技術基礎。
b) 實時計算算法
要真正實現大數據實時計算,光有框架是不行的,還必須針對特定業務開發特定的處理流程和算法。相比較離線計算而言,實時計算在算法方面需要考慮的更多,這是因為實時計算能夠用到的存儲資源遠不如離線,而且處理過程的時間限制要比離線計算嚴格,這都要求實時計算算法必須做相當多的優化。在這一節中,筆者將以海量計數問題為例介紹百分點公司在實時計算算法方面的經驗。
目前,百分點數據平臺上包含了近千萬的電商單品數據,實時追蹤這些單品的瀏覽和交易數據是必須的,這也是做個性化推薦、商品畫像、銷量預測和用戶畫像等業務的必要前提。我們的問題是:如何設計一種算法使得我們可以實時查看任意單品最近24小時的瀏覽量?這個問題描述起來很簡單,但稍加思索就會發現做起來并不容易。下面我們先給出一個簡單方案,而后按照一定的原則逐步精化到最佳方案。
c) 簡單方案
圖 3按秒計數方案
看到這個問題時,大部分讀者會很快想到如圖 3所示的算法方案。圖中紅色、藍色和綠色的方塊分別表示不同的單品。在這個方案中,我們為每個單品保存一份瀏覽信息,它包含兩個數據結構:
d) 歷史瀏覽量列表(簡稱歷史),一個列表,列表中每個元素包含一個時間戳和一個整數,分別代表過去24小時中的某一秒及這一秒鐘的瀏覽量,按時間順序排序。這個列表的最長會包含24*3600=86400個元素,但一般情況下極少有單品時時刻刻都被瀏覽,我們可以假設這個列表的平均長度不超過10000。
e) 累計瀏覽量(簡稱累計量),一個整數,代表截止到最后一次訪問時的瀏覽量。
如圖所示,假設藍色單品對應的數據是 [(t1, a1), (t2, a2), …, (tn, an)]和A。這表示t1時刻的該單品瀏覽量是a1,t2時刻是a2,tn是最后一次記錄到瀏覽該單品的時刻,瀏覽量是an。截止到tn,該單品的總瀏覽量是A。
當單品瀏覽源源不斷進入到消息隊列時,處理進程(或線程)P1,P2…會實時讀取到這些信息,并修改對應單品的數據信息。例如,P1讀取到t時刻對藍色單品的瀏覽記錄時,會進行下面的操作:
f) 得到當前時刻ct;
g) 對數據庫中藍色單品數據加鎖,加鎖成功后讀取出數據,假設歷史是[(t1, a1), (t2, a2), …, (tn, an)],累計量是A;
h) 累計量遞增,即從A修改為A+1
i) 如果ct=tn,則更新歷史為[(t1, a1), (t2, a2), …, (tn, an+1)],否則更新為[(t1, a1), (t2, a2), …, (tn, an), (ct,1)];最后刪除時間戳小于ct-24*3600的列表元素,刪除的同時從累計量中減去對應時刻的瀏覽量,例如只有元素t1> ct-24*3600,則操作完成后的瀏覽量為A+1-a1;
j) 將新的歷史和累計量輸出至數據庫,釋放鎖。
不難驗證這個方案是可以正確得出每個單品24小時內的瀏覽量的,并且只要在資源(計算、存儲和網絡)充足的情況下,數據庫中單品的瀏覽量是實時更新的。這個方案也是分布式實時計算中最簡單最常見的一種模式。
k) 避免鎖
圖 4不包含鎖的方案
第一個方案中需要對數據庫加鎖,無論加鎖粒度多細,都會嚴重影響計算效率。雖然像Redis一類的內存數據庫提供了incr這樣的原子操作,但這種操作多數情況下只適用于整型數據,并不適合本問題的歷史數據。
要想提高實時處理效率,避免鎖是非常重要的。一種常見的做法是將并行操作串行化,就像MapReduce中的Reduce階段一樣,將key相同的數據交由同一個reducer處理?;谶@個原理,我們可以將方案改造為如圖 4所示,我們新增一個數據分發處理過程,它的作用是保證同一個單品的所有數據都會發送給同一個處理程序。例如將藍色單品交由P1處理,紅色交由P2處理,綠色交由P3處理。這樣P1在處理過程中不需要對數據庫加鎖,因為不存在資源競爭。這樣可以極大的提高計算效率,于是整個計算過程變為:
l) 得到當前時刻ct;
m) 讀取數據庫中藍色單品信息,假設歷史是[(t1, a1), (t2, a2), …, (tn, an)],累計量是A;
n) 累計遞增,即從A修改為A+1
o) 如果ct=tn,則更新歷史為[(t1, a1), (t2, a2), …, (tn, an+1)],否則更新為[(t1, a1), (t2, a2), …, (tn, an), (ct,1)];最后刪除時間戳小于ct-24*3600的列表元素,刪除的同時從累量中減去對應時刻的瀏覽量;
p) 將新的歷史和累計量輸出至數據庫。
步驟b)和e)省去了鎖操作,整個系統的并發性和吞吐量會得到大大提高。當然,沒有免費的午餐,這種方案的缺點在于存在單點隱患,例如一旦P1由于某些原因掛掉了,那么藍色單品的數據將得不到及時處理,計數結果將無法保證實時。這種計算過程對系統監控和故障轉移會有很高的要求。
q) 數據分層
圖 5帶有本地緩存的方案
方案二已經可以大大提高計算效率,但這還不夠,我們可以看到在計算步驟b)和e)中總是要把歷史和累計量同時從數據庫中讀出或寫入,實際上這是沒有必要的,因為只有累計量才是外部必須使用的數據,而歷史只是算法的中間數據。這樣,我們可以區別對待歷史和累計量,我們將歷史和累計量都緩存在計算進程中,定期更新歷史至數據庫,而累計量則實時更新。新的方案如圖 5所示,計算過程變為:
r) 得到當前時刻ct;
s) 如果本地沒有藍色單品的信息,則從數據庫中讀取藍色單品信息;否則直接使用本地緩存的信息。假設歷史是[(t1, a1), (t2, a2), …, (tn, an)],累計量是A;
t) 累計量遞增,即從A修改為A+1
u) 如果ct=tn,則更新歷史為[(t1, a1), (t2, a2), …, (tn, an+1)],否則更新為[(t1, a1), (t2, a2), …, (tn, an), (ct,1)];最后刪除時間戳小于ct-24*3600的列表元素,刪除的同時從累計量中減去對應時刻的瀏覽量;
v) 將新的累計量輸出至數據庫;如果滿足一定的條件(例如上次輸出時間足夠久遠,或者處理的消息量達到一定數量),則將歷史輸出至數據庫。
這種方案可以大大降低數據庫壓力、數據IO和序列化反序列化次數,從而提高整個系統的處理效率。數據分層實際上是計算機中一種常用的路數,例如硬件中的高速緩存/內存/磁盤,系統IO中的緩沖區/磁盤文件,數據庫的內存索引、系統DNS緩存等等。我們使用的開源搜索引擎Solr就使用了同樣的思路達到近實時索引。Solr包含磁盤全量索引和實時增加的內存增量索引,并引入了“soft提交”的方式更新新索引。新數據到達后,Solr會使用“soft”提交的方式更新內存增量索引,在檢索的時候通過同時請求全量索引和增量索引并合并的方式獲得到最新的數據。之后會在服務器空閑的時候,Solr會把內存增量索引合并到磁盤全量索引中保證數據完整。
當然,這種方案也對系統的穩定性提出了更高的要求,因為一旦P1掛掉那么它緩存的數據將丟失,及時P1及時重啟,這些數據也無法恢復,那么在一段時間內我們將無法得到準確的實時瀏覽量。
w) 模糊化
現在,我們來考慮存儲資源問題。假設時間戳和整型都用long類型(8字節)保存,那么按照方案一中的估計,我們對每個單品的需要記錄的數據大小約為10000×(8+8)+8=16008字節≈156KB,1000萬單品的數據總量將超過1T,如果考慮到數據庫和本地緩存因素,那么整個系統需要的存儲量至少是2T!這對于計數這個問題而言顯然是得不償失的,我們必須嘗試將數據量降低,在這個問題中可行的是降低歷史的存儲精度。我們將歷史定義為小時級別精度,這樣每個單品的歷史至多有24個,數據量最多392字節,1000萬單品的信息總量將變為3.6G,系統總的存儲量不超過8G,這是可以接受的。如果考慮用int類型代替long類型存儲時間(小時數),則存儲量可以進一步降低到不足6G。這樣新的計算過程變為:
x) 得到當前時刻精確到小時的部分ct;
y) 如果本地沒有藍色單品的信息,則從數據庫中讀取藍色單品信息;否則直接使用本地緩存的信息。假設歷史是[(t1, a1), (t2, a2), …, (tn, an)],累計量是A;
z) 累計量遞增,即從A修改為A+1
aa) 如果ct=tn,則更新歷史為[(t1, a1), (t2, a2), …, (tn, an+1)],否則更新為[(t1, a1), (t2, a2), …, (tn, an), (ct,1)];最后刪除小時數小于ct-24的列表元素,刪除的同時從累計量中減去對應時刻的瀏覽量;
ab) 將新的瀏覽量輸出至數據庫;如果滿足一定的條件,則將歷史輸出至數據庫。
在這種方案下,數據庫中存儲的并不是過去24小時內的瀏覽量,而是過去23小時多一點內的。例如在1月2日12:15時數據庫中的瀏覽量實際上是1月1日13:00到1月2日12:15的瀏覽量!
這種降低數據精度的方法我們可以稱之為模糊化,它是用資源換效率的一種方法。在對數據精確性不是特別敏感的領域,這種方法可以大大降低系統資源使用量、提高系統的處理效率。利用模糊化的實時算法快速得到近似結果,而后用離線算法慢慢修正結果的精確度,是百分點在大數據處理中經常使用的招數。
ac) 局部精化
圖 6局部精華示意圖
有時候,模糊化會掩蓋掉一些重要的細節信息,達不到業務需求的要求。例如,電商有很多的秒殺活動,此時必須及時監測單品瀏覽量,如果我們還按小時維度進行計算,那顯然不能滿足要求。這種情況下我們就必須對局部數據進行細化,它是模糊化的逆操作,我們稱之為局部精化。如圖 6所示,第k小時的數據是很敏感的,我們希望它的數據能更實時一些,那我們可以將第k小時的數據切分的更細,對它做10分鐘、分鐘甚至秒級別的計算,而其他時間段仍舊采用小時精度。
這種方案會增加系統的設計和開發難度,而且必須有靈活的配置才能滿足多變的業務需求。
ad) 數據建模
除了局部細化,還有一種方法可以提高數據的精確度,這就是數據建模。在方案四中我們提到在小時精度下,實際上只能得到23小時多一點之前的瀏覽量,有一部分數據丟失了沒有用到。實際上我們可以將丟棄掉的數據利用起來得到更好的結果。最簡單思路是假設同一小時內單品的瀏覽量是線性增加的,那么我們顯然可以利用相鄰兩個小時的瀏覽歷史推算出任意時刻的瀏覽量?;氐椒桨杆闹械睦?,1月2日12:15的實時瀏覽量可以通過下面的公式計算得出:
[a0 + (a1-a0)×(60-15)/60] + a1 + … + a24
其中a0代表1月1日12:00到13:00之間的瀏覽量,依次類推,a24代表1月2日12:00到12:15之間的瀏覽量。公式中的a0 + (a1-a0)×(60-15)/60 估計了1月1日12:15-13:00之間的瀏覽量,這樣就得出了從1月1日12:15到1月2日12:15之間24小時內的瀏覽量。
圖 7某單品的全天瀏覽分布
我們還可以利用更復雜的瀏覽量分布模型得出精度更高的估計,圖 7給出了某單品一天的瀏覽分布曲線,這個分布適用于絕大多數的商品以及絕大多數的時間。因此,我們完全可以利用這個分布來更精確的估計每個單品的瀏覽量,利用這個模型我們甚至不需要記錄瀏覽歷史,只需要知道當天0:00到當前的瀏覽總量就可以計算出前24小時內的瀏覽量,甚至預測接下來的瀏覽量情況!
當然,模型也不是萬能的,模型本身的建立和更新也是有代價的,如果建模方法不恰當或者模型更新不及時,很有可能得出的結果會很差。
ae) 小結
本文首先介紹了百分點公司大數據平臺的基本原理,并詳細說明了其中與實時計算相關部分,實時計算框架和數據查詢框架,的系統架構、處理流程和應用。而后,我們以海量數據計數問題為例,深入淺出的介紹了在百分點公司在實時計算算法中常用的方法和技巧,以及它們適用的場景和可能帶來的問題。這些方法和技巧具有普遍性和通用性,被廣泛應用于百分點個性化推薦引擎的各個模塊,包括用戶意圖預測、用戶畫像、個性化推薦評分、商品分類等等。如果能在實際業務中靈活運用這些方法和技巧,則能夠大大提高實時計算的數據規模和處理效率,幫助業務快速發展。希望本文的介紹能夠幫助讀者更好的理解大數據實時計算的方方面面。
數據分析咨詢請掃描二維碼
若不方便掃碼,搜微信號:CDAshujufenxi
CDA數據分析師證書考試體系(更新于2025年05月22日)
2025-05-26解碼數據基因:從數字敏感度到邏輯思維 每當看到超市貨架上商品的排列變化,你是否會聯想到背后的銷售數據波動?三年前在零售行 ...
2025-05-23在本文中,我們將探討 AI 為何能夠加速數據分析、如何在每個步驟中實現數據分析自動化以及使用哪些工具。 數據分析中的AI是什么 ...
2025-05-20當數據遇見人生:我的第一個分析項目 記得三年前接手第一個數據分析項目時,我面對Excel里密密麻麻的銷售數據手足無措。那些跳動 ...
2025-05-20在數字化運營的時代,企業每天都在產生海量數據:用戶點擊行為、商品銷售記錄、廣告投放反饋…… 這些數據就像散落的拼圖,而相 ...
2025-05-19在當今數字化營銷時代,小紅書作為國內領先的社交電商平臺,其銷售數據蘊含著巨大的商業價值。通過對小紅書銷售數據的深入分析, ...
2025-05-16Excel作為最常用的數據分析工具,有沒有什么工具可以幫助我們快速地使用excel表格,只要輕松幾步甚至輸入幾項指令就能搞定呢? ...
2025-05-15數據,如同無形的燃料,驅動著現代社會的運轉。從全球互聯網用戶每天產生的2.5億TB數據,到制造業的傳感器、金融交易 ...
2025-05-15大數據是什么_數據分析師培訓 其實,現在的大數據指的并不僅僅是海量數據,更準確而言是對大數據分析的方法。傳統的數 ...
2025-05-14CDA持證人簡介: 萬木,CDA L1持證人,某電商中廠BI工程師 ,5年數據經驗1年BI內訓師,高級數據分析師,擁有豐富的行業經驗。 ...
2025-05-13CDA持證人簡介: 王明月 ,CDA 數據分析師二級持證人,2年數據產品工作經驗,管理學博士在讀。 學習入口:https://edu.cda.cn/g ...
2025-05-12CDA持證人簡介: 楊貞璽 ,CDA一級持證人,鄭州大學情報學碩士研究生,某上市公司數據分析師。 學習入口:https://edu.cda.cn/g ...
2025-05-09CDA持證人簡介 程靖 CDA會員大咖,暢銷書《小白學產品》作者,13年頂級互聯網公司產品經理相關經驗,曾在百度、美團、阿里等 ...
2025-05-07相信很多做數據分析的小伙伴,都接到過一些高階的數據分析需求,實現的過程需要用到一些數據獲取,數據清洗轉換,建模方法等,這 ...
2025-05-06以下的文章內容來源于劉靜老師的專欄,如果您想閱讀專欄《10大業務分析模型突破業務瓶頸》,點擊下方鏈接 https://edu.cda.cn/g ...
2025-04-30CDA持證人簡介: 邱立峰 CDA 數據分析師二級持證人,數字化轉型專家,數據治理專家,高級數據分析師,擁有豐富的行業經驗。 ...
2025-04-29CDA持證人簡介: 程靖 CDA會員大咖,暢銷書《小白學產品》作者,13年頂級互聯網公司產品經理相關經驗,曾在百度,美團,阿里等 ...
2025-04-28CDA持證人簡介: 居瑜 ,CDA一級持證人國企財務經理,13年財務管理運營經驗,在數據分析就業和實踐經驗方面有著豐富的積累和經 ...
2025-04-27數據分析在當今信息時代發揮著重要作用。單因素方差分析(One-Way ANOVA)是一種關鍵的統計方法,用于比較三個或更多獨立樣本組 ...
2025-04-25CDA持證人簡介: 居瑜 ,CDA一級持證人國企財務經理,13年財務管理運營經驗,在數據分析就業和實踐經驗方面有著豐富的積累和經 ...
2025-04-25