
谷歌的海量數據排序實驗史
自從相關工具創建以來,我們一直通過對海量的隨機數據執行排序來測試MapReduce。這種方式很受歡迎,因為生成任意數量的數據非常簡單,想要驗證輸出結果是否正確也很簡單。
盡管最開始的MapReduce論文報告的是TeraSort的結果。工程師們將定期對1TB或10TB數據執行排序當作回歸測試來做,因為測試時使用的數據量越大,那些不顯眼的bug就越容易被發現。然而,當我們進一步擴大數據規模后,真正的樂趣才剛開始。本文將會討論幾年前我們所做的一些PB規模的排序實驗,包括在我們看來最大的一次MapReduce任務:對50PB的數據執行排序。
如今,GraySort已是海量數據排序基準之選,測試者必須以最快速度按字典順序對至少100TB的數據執行排序。網站sortbenchmark.org跟蹤記錄了這項基準測試的官方優勝者,但谷歌從未參加過官方競賽。
由于實現Reduce的過程就是對鍵值排序,MapReduce剛好適合解決這個問題。通過合適的(詞典)分片功能,MapReduce就能輸出一系列的文件,其中包含最終排序后的數據集。
有時在數據中心有新集群出現時(一般是為了搜索索引團隊的使用),我們這些MapReduce團隊的人員就有機會歇口氣,在實際工作量壓過來之前休閑幾周。這些時候,我們才有機會試試看:讓集群“超負荷”、探究硬件的極限、搞掛一些硬盤、測試一些非常昂貴的設備,并學到很多系統性能相關的東西,同時(在非官方的)排序基準測試獲得勝利。
圖一:谷歌的Petasort記錄
2007
(1PB,12.13小時,1.37TB/分鐘,2.9 MB/秒/worker)
我們在2007年首次運行Petasort。那時候,我們主要是開心能把這個測試完成,盡管對輸出結果的正確性還有些疑問(由于未作驗證而無法確認)。當時,若不是我們關閉了檢查map分片與備份的輸出結果是否一致的機制,這項任務是無法完成的。我們懷疑,這是用作輸入和輸出結果存儲的谷歌檔案系統(GFS)所造成的限制。GFS的校驗和保護不足,有時會返回損壞的數據。不幸的是,該基準測試所使用的文件格式并不包含任何內嵌的校驗和,無法讓MapReduce發送通知(在谷歌,通常使用MapReduce的方式就是使用內嵌校驗和的文件格式)。
2008
(1PB,6.03小時,2.76TB/分鐘,11.5 MB/秒/worker)
2008年,我們首次專注于優化調整,花了幾天時間調整分片數量、不同緩沖區的大小、預讀/預寫策略、頁面緩存使用等,并在博客中記錄了結果。最終,通過將輸出結果三路復制到GFS,我們解決掉了瓶頸,這也成了我們那時在谷歌的標準用法,少一路都會有很高的風險損失掉數據。
2010
(1PB,2.95小時,5.65TB/分鐘,11.8 MB/秒/worker)
在這個測試中,我們使用了新版本的GraySort基準,這個版本使用到了不可壓縮的數據。在前幾年中,我們從GFS讀取或者向其寫入1PB數據時,實際shuffle的數據量僅有大約300TB左右,因為那時所使用的ASCII格式都是壓縮過的。
在這一年中,谷歌將GFS更新為下一代分布式存儲系統Colossus。之前使用GFS時所遇到的數據損壞問題不再出現了,我們還在輸出結果中使用了RS編碼(Colossus的新功能),從而將寫入的總數據量從3PB(三路復制)減少到大約1.6PB。這時我們也首次證實了輸出結果的正確性。
為了減少離散數據的影響,我們運用了動態分片技術(也就是減少子分片),后來演變為了在Dataflow中使用完全動態分片技術。
2011
(1PB,0.55小時,30.3TB/分鐘,63.1 MB/秒/worker)
這一年我們的網絡速度更快,也開始關注每臺服務器的效率,特別是輸入/輸出(I/O)方面的問題。我們要確保所有的硬盤I/O操作都是在2MB大小的塊區內進行的,解決有時會縮小到64kB塊區的問題。我們使用了固態硬盤(SSD)來記錄部分數據,這使得Petasort測試首次在一小時之內完成,準確來講是33分鐘,可以參考這里的記錄。最終,在分布式存儲中輸入/輸出以及將中間數據保存在硬盤中以支持容錯(由于在實驗中,某些硬盤甚至整臺服務器都會宕掉,而且這種情況會頻繁出現,因此容錯非常重要)的問題上,性能達到了指定MapReduce架構的硬件極限性能的將近兩倍。同時也獲得了更高的擴展:我們在6小時27分鐘之內運行了10PB的數據(26TB/分鐘)。
2012
(50PB,23小時,36.2TB/分鐘,50 MB/秒/worker)
在這個測試中,我們將注意力轉向更大規模的數據排序,通過調用我們在谷歌所能控制的最大規模集群,將shuffle的數據量提到最大,然后運行相應的MapReduce任務。不幸的是,這個集群的空間不夠讓100PB的數據排序,因此我們將要排序的數據限制在50PB。這個測試僅運行了一次,也沒有做專門的優化調整,而且設置還是取自之前做10PB實驗時所用的那一套,完成時間為23小時5分鐘。
注意,這個排序的規模是GraySort的500倍,在吞吐量上是2015年GraySort官方優勝者的兩倍。
這些實驗讓我們獲益良多:包括在運行萬臺規模的服務器上執行排序時遇到了什么挑戰,以及如何優化調整以接近硬件性能的速度極限。
盡管這些排序實驗非常有趣,但仍有一些缺點:
數據分析咨詢請掃描二維碼
若不方便掃碼,搜微信號:CDAshujufenxi
CDA數據分析師證書考試體系(更新于2025年05月22日)
2025-05-26解碼數據基因:從數字敏感度到邏輯思維 每當看到超市貨架上商品的排列變化,你是否會聯想到背后的銷售數據波動?三年前在零售行 ...
2025-05-23在本文中,我們將探討 AI 為何能夠加速數據分析、如何在每個步驟中實現數據分析自動化以及使用哪些工具。 數據分析中的AI是什么 ...
2025-05-20當數據遇見人生:我的第一個分析項目 記得三年前接手第一個數據分析項目時,我面對Excel里密密麻麻的銷售數據手足無措。那些跳動 ...
2025-05-20在數字化運營的時代,企業每天都在產生海量數據:用戶點擊行為、商品銷售記錄、廣告投放反饋…… 這些數據就像散落的拼圖,而相 ...
2025-05-19在當今數字化營銷時代,小紅書作為國內領先的社交電商平臺,其銷售數據蘊含著巨大的商業價值。通過對小紅書銷售數據的深入分析, ...
2025-05-16Excel作為最常用的數據分析工具,有沒有什么工具可以幫助我們快速地使用excel表格,只要輕松幾步甚至輸入幾項指令就能搞定呢? ...
2025-05-15數據,如同無形的燃料,驅動著現代社會的運轉。從全球互聯網用戶每天產生的2.5億TB數據,到制造業的傳感器、金融交易 ...
2025-05-15大數據是什么_數據分析師培訓 其實,現在的大數據指的并不僅僅是海量數據,更準確而言是對大數據分析的方法。傳統的數 ...
2025-05-14CDA持證人簡介: 萬木,CDA L1持證人,某電商中廠BI工程師 ,5年數據經驗1年BI內訓師,高級數據分析師,擁有豐富的行業經驗。 ...
2025-05-13CDA持證人簡介: 王明月 ,CDA 數據分析師二級持證人,2年數據產品工作經驗,管理學博士在讀。 學習入口:https://edu.cda.cn/g ...
2025-05-12CDA持證人簡介: 楊貞璽 ,CDA一級持證人,鄭州大學情報學碩士研究生,某上市公司數據分析師。 學習入口:https://edu.cda.cn/g ...
2025-05-09CDA持證人簡介 程靖 CDA會員大咖,暢銷書《小白學產品》作者,13年頂級互聯網公司產品經理相關經驗,曾在百度、美團、阿里等 ...
2025-05-07相信很多做數據分析的小伙伴,都接到過一些高階的數據分析需求,實現的過程需要用到一些數據獲取,數據清洗轉換,建模方法等,這 ...
2025-05-06以下的文章內容來源于劉靜老師的專欄,如果您想閱讀專欄《10大業務分析模型突破業務瓶頸》,點擊下方鏈接 https://edu.cda.cn/g ...
2025-04-30CDA持證人簡介: 邱立峰 CDA 數據分析師二級持證人,數字化轉型專家,數據治理專家,高級數據分析師,擁有豐富的行業經驗。 ...
2025-04-29CDA持證人簡介: 程靖 CDA會員大咖,暢銷書《小白學產品》作者,13年頂級互聯網公司產品經理相關經驗,曾在百度,美團,阿里等 ...
2025-04-28CDA持證人簡介: 居瑜 ,CDA一級持證人國企財務經理,13年財務管理運營經驗,在數據分析就業和實踐經驗方面有著豐富的積累和經 ...
2025-04-27數據分析在當今信息時代發揮著重要作用。單因素方差分析(One-Way ANOVA)是一種關鍵的統計方法,用于比較三個或更多獨立樣本組 ...
2025-04-25CDA持證人簡介: 居瑜 ,CDA一級持證人國企財務經理,13年財務管理運營經驗,在數據分析就業和實踐經驗方面有著豐富的積累和經 ...
2025-04-25