
隨著美團交易規模的逐步增大,積累下來的業務數據和交易數據越來越多,這些數據是美團做為一個團購平臺最寶貴的財富。通過對這些數據的分析和挖掘,不僅能給美團業務發展方向提供決策支持,也為業務的迭代指明了方向。目前在美團的團購系統中大量地應用到了機器學習和數據挖掘技術,例如個性化推薦、篩選排序、搜索排序、用戶建模等等,為公司創造了巨大的價值。
本文主要介紹在美團的推薦與個性化團隊實踐中的數據清洗與特征挖掘方法。主要內容已經在內部公開課"機器學習InAction系列"講過,本博客的內容主要是講座內容的提煉和總結。
如上圖所示是一個經典的機器學習問題框架圖。數據清洗和特征挖掘的工作是在灰色框中框出的部分,即“數據清洗=>特征,標注數據生成=>模型學習=>模型應用”中的前兩個步驟。
灰色框中藍色箭頭對應的是離線處理部分。主要工作是:
1.從原始數據,如文本、圖像或者應用數據中清洗出特征數據和標注數據。
2.對清洗出的特征和標注數據進行處理,例如樣本采樣,樣本調權,異常點去除,特征歸一化處理,特征變化,特征組合等過程。最終生成的數據主要是供模型訓練使用。
灰色框中綠色箭頭對應的是在線處理的部分。所做的主要工作和離線處理的類似,主要的區別在于1.不需要清洗標注數據,只需要處理得到特征數據,在線模型使用特征數據預測出樣本可能的標簽。2.最終生成數據的用處,最終生成的數據主要用于模型的預測,而不是訓練。
在離線的處理部分,可以進行較多的實驗和迭代,嘗試不同的樣本采樣、樣本權重、特征處理方法、特征組合方法等,最終得到一個最優的方法,在離線評估得到好的結果后,最終將確定的方案在線上使用。
另外,由于在線和離線環境不同,存儲數據、獲取數據的方法存在較大的差異。例如離線數據獲取可以將數據存儲在Hadoop,批量地進行分析處理等操作,并且容忍一定的失敗。而在線服務獲取數據需要穩定、延時小等,可以將數據建入索引、存入KV存儲系統等。后面在相應的部分會詳細地介紹。
本文以點擊下單率預測為例,結合實例來介紹如何進行數據清洗和特征處理。首先介紹下點擊下單率預測任務,其業務目標是提高團購用戶的用戶體驗,幫助用戶更快更好地找到自己想買的單子。這個概念或者說目標看起來比較虛,我們需要將其轉換成一個技術目標,便于度量和實現。最終確定的技術目標是點擊下單率預估,去預測用戶點擊或者購買團購單的概率。我們將預測出來點擊或者下單率高的單子排在前面,預測的越準確,用戶在排序靠前的單子點擊、下單的就越多,省去了用戶反復翻頁的開銷,很快就能找到自己想要的單子。離線我們用常用的衡量排序結果的AUC指標,在線的我們通過ABTest來測試算法對下單率、用戶轉化率等指標的影響。
在確定了目標之后,下一步,我們需要確定使用哪些數據來達到目標。需要事先梳理哪些特征數據可能與用戶是否點擊下單相關。我們可以借鑒一些業務經驗,另外可以采用一些特征選擇、特征分析等方法來輔助我們選擇。具體的特征選擇,特征分析等方法我們后面會詳細介紹。從業務經驗來判斷,可能影響用戶是否點擊下單的因素有:
1.距離,很顯然這是一個很重要的特征。如果購買一個離用戶距離較遠的單子,用戶去消費這個單子需要付出很多的代價。 當然,也并不是沒有買很遠單子的用戶,但是這個比例會比較小。
2.用戶歷史行為,對于老用戶,之前可能在美團有過購買、點擊等行為。
3.用戶實時興趣。
4.單子質量,上面的特征都是比較好衡量的,單子質量可能是更復雜的一個特征。
5.是否熱門,用戶評價人數,購買數等等。
在確定好要使用哪些數據之后,我們需要對使用數據的可用性進行評估,包括數據的獲取難度,數據的規模,數據的準確率,數據的覆蓋率等,
1.數據獲取難度
例如獲取用戶id不難,但是獲取用戶年齡和性別較困難,因為用戶注冊或者購買時,這些并不是必填項。即使填了也不完全準確。這些特征可能是通過額外的預測模型預測的,那就存在著模型精度的問題。
2.數據覆蓋率
數據覆蓋率也是一個重要的考量因素,例如距離特征,并不是所有用戶的距離我們都能獲取到。PC端的就沒有距離,還有很多用戶禁止使用它們的地理位置信息等。
3.用戶歷史行為,只有老用戶才會有行為。
用戶實時行為,如果用戶剛打開app,還沒有任何行為,同樣面臨著一個冷啟動的問題。
4.數據的準確率
單子質量,用戶性別等,都會有準確率的問題。
Ok,在選定好要用的特征之后,我們需要考慮一個問題。就是這些數據從哪可以獲???只有獲取了這些數據我們才能用上。否則,提一個不可能獲取到的特征,獲取不到,提了也是白提。下面就介紹下特征獲取方案。
1.離線特征獲取方案
離線可以使用海量的數據,借助于分布式文件存儲平臺,例如HDFS等,使用例如MapReduce,Spark等處理工具來處理海量的數據等。
2.在線特征獲取方案
在線特征比較注重獲取數據的延時,由于是在線服務,需要在非常短的時間內獲取到相應的數據,對查找性能要求非常高,可以將數據存儲在索引、kv存儲等。而查找性能與數據的數據量會有矛盾,需要折衷處理,我們使用了特征分層獲取方案,如下圖所示。
在了解特征數據放在哪兒、怎樣獲取之后。下一步就是考慮如何處理特征和標注數據了。下面3節都是主要講的特征和標注處理方法
首先介紹下如何清洗特征數據,清洗特征數據方法可以分為離線清洗和在線清洗兩種方法。
離線清洗數據
離線清洗優點是方便評估新特征效果,缺點是實時性差,與線上實時環境有一定誤差。對于實時特征難以訓練得到恰當的權重。
在線清洗數據
在線清洗優點是實時性強,完全記錄的線上實際數據,缺點是新特征加入需要一段時間做數據積累。
特征數據只有在和標注數據合并之后,才能用來做為模型的訓練。下面介紹下如何清洗標注數據。主要是數據采樣和樣本過濾。
數據采樣,例如對于分類問題:選取正例,負例。對于回歸問題,需要采集數據。對于采樣得到的樣本,根據需要,需要設定樣本權重。當模型不能使用全部的數據來訓練時,需要對數據進行采樣,設定一定的采樣率。采樣的方法包括隨機采樣,固定比例采樣等方法。
除了采樣外,經常對樣本還需要進行過濾,包括
1.結合業務情況進行數據的過濾,例如去除crawler抓取,spam,作弊等數據。
2.異常點檢測,采用異常點檢測算法對樣本進行分析,常用的異常點檢測算法包括:
偏差檢測,例如聚類,最近鄰等。
基于統計的異常點檢測算法
例如極差,四分位數間距,均差,標準差等,這種方法適合于挖掘單變量的數值型數據。全距(Range),又稱極差,是用來表示統計資料中的變異量數(measures of variation) ,其最大值與最小值之間的差距;四分位距通常是用來構建箱形圖,以及對概率分布的簡要圖表概述。
基于距離的異常點檢測算法,主要通過距離方法來檢測異常點,將數據集中與大多數點之間距離大于某個閾值的點視為異常點,主要使用的距離度量方法有絕對距離 ( 曼哈頓距離 ) 、歐氏距離和馬氏距離等方法。
基于密度的異常點檢測算法,考察當前點周圍密度,可以發現局部異常點,例如LOF算法
在分析完特征和標注的清洗方法之后,下面來具體介紹下特征的處理方法,先對特征進行分類,對于不同的特征應該有不同的處理方法。
根據不同的分類方法,可以將特征分為(1)Low level特征和High level特征。(2)穩定特征與動態特征。(3)二值特征、連續特征、枚舉特征。
Low level特征是較低級別的特征,主要是原始特征,不需要或者需要非常少的人工處理和干預,例如文本特征中的詞向量特征,圖像特征中的像素點,用戶id,商品id等。Low level特征一般維度比較高,不能用過于復雜的模型。High level特征是經過較復雜的處理,結合部分業務邏輯或者規則、模型得到的特征,例如人工打分,模型打分等特征,可以用于較復雜的非線性模型。Low level 比較針對性,覆蓋面小。長尾樣本的預測值主要受high level特征影響。 高頻樣本的預測值主要受low level特征影響。
穩定特征是變化頻率(更新頻率)較少的特征,例如評價平均分,團購單價格等,在較長的時間段內都不會發生變化。動態特征是更新變化比較頻繁的特征,有些甚至是實時計算得到的特征,例如距離特征,2小時銷量等特征?;蛘呓凶鰧崟r特征和非實時特征。針對兩類特征的不同可以針對性地設計特征存儲和更新方式,例如對于穩定特征,可以建入索引,較長時間更新一次,如果做緩存的話,緩存的時間可以較長。對于動態特征,需要實時計算或者準實時地更新數據,如果做緩存的話,緩存過期時間需要設置的較短。
二值特征主要是0/1特征,即特征只取兩種值:0或者1,例如用戶id特征:目前的id是否是某個特定的id,詞向量特征:某個特定的詞是否在文章中出現等等。連續值特征是取值為有理數的特征,特征取值個數不定,例如距離特征,特征取值為是0~正無窮。枚舉值特征主要是特征有固定個數個可能值,例如今天周幾,只有7個可能值:周1,周2,...,周日。在實際的使用中,我們可能對不同類型的特征進行轉換,例如將枚舉特征或者連續特征處理為二值特征。枚舉特征處理為二值特征技巧:將枚舉特征映射為多個特征,每個特征對應一個特定枚舉值,例如今天周幾,可以把它轉換成7個二元特征:今天是否是周一,今天是否是周二,...,今天是否是周日。連續值處理為二值特征方法:先將連續值離散化(后面會介紹如何離散化),再將離散化后的特征切分為N個二元特征,每個特征代表是否在這個區間內。
在對特征進行分類后,下面介紹下對特征常用的處理方法。包括1.特征歸一化,離散化,缺省值處理。2.特征降維方法。3.特征選擇方法等。
主要用于單個特征的處理。
歸一化
不同的特征有不同的取值范圍,在有些算法中,例如線性模型或者距離相關的模型像聚類模型、knn模型等,特征的取值范圍會對最終的結果產生較大影響,例如二元特征的取值范圍為[0,1],而距離特征取值可能是[0,正無窮),在實際使用中會對距離進行截斷,例如[0,3000000],但是這兩個特征由于取值范圍不一致導致了模型可能會更偏向于取值范圍較大的特征,為了平衡取值范圍不一致的特征,需要對特征進行歸一化處理,將特征取值歸一化到[0,1]區間。常用的歸一化方法包括1.函數歸一化,通過映射函數將特征取值映射到[0,1]區間,例如最大最小值歸一化方法,是一種線性的映射。還有通過非線性函數的映射,例如log函數等。2.分維度歸一化,可以使用最大最小歸一化方法,但是最大最小值選取的是所屬類別的最大最小值,即使用的是局部最大最小值,不是全局的最大最小值。3.排序歸一化,不管原來的特征取值是什么樣的,將特征按大小排序,根據特征所對應的序給予一個新的值。
離散化
在上面介紹過連續值的取值空間可能是無窮的,為了便于表示和在模型中處理,需要對連續值特征進行離散化處理。常用的離散化方法包括等值劃分和等量劃分。等值劃分是將特征按照值域進行均分,每一段內的取值等同處理。例如某個特征的取值范圍為[0,10],我們可以將其劃分為10段,[0,1),[1,2),...,[9,10)。等量劃分是根據樣本總數進行均分,每段等量個樣本劃分為1段。例如距離特征,取值范圍[0,3000000],現在需要切分成10段,如果按照等比例劃分的話,會發現絕大部分樣本都在第1段中。使用等量劃分就會避免這種問題,最終可能的切分是[0,100),[100,300),[300,500),..,[10000,3000000],前面的區間劃分比較密,后面的比較稀疏。
缺省值處理
有些特征可能因為無法采樣或者沒有觀測值而缺失,例如距離特征,用戶可能禁止獲取地理位置或者獲取地理位置失敗,此時需要對這些特征做特殊的處理,賦予一個缺省值。缺省值如何賦予,也有很多種方法。例如單獨表示,眾數,平均值等。
在介紹特征降維之前,先介紹下特征升維。在機器學習中,有一個VC維理論。根據VC維理論,VC維越高,打散能力越強,可容許的模型復雜度越高。在低維不可分的數據,映射到高維是可分??梢韵胂?,給你一堆物品,人腦是如何對這些物品進行分類,依然是找出這些物品的一些特征,例如:顏色,形狀,大小,觸感等等,然后根據這些特征對物品做以歸類,這其實就是一個先升維,后劃分的過程。比如我們人腦識別香蕉??赡苁紫任覀儼l現香蕉是黃色的。這是在顏色這個維度的一個切分。但是很多東西都是黃色的啊,例如哈密瓜。那么怎么區分香蕉和哈密瓜呢?我們發現香蕉形狀是彎曲的。而哈密瓜是圓形的,那么我們就可以用形狀來把香蕉和哈密瓜劃分開了,即引入一個新維度:形狀,來區分。這就是一個從“顏色”一維特征升維到二維特征的例子。
那問題來了,既然升維后模型能力能變強,那么是不是特征維度越高越好呢?為什么要進行特征降維&特征選擇?主要是出于如下考慮:1. 特征維數越高,模型越容易過擬合,此時更復雜的模型就不好用。2. 相互獨立的特征維數越高,在模型不變的情況下,在測試集上達到相同的效果表現所需要的訓練樣本的數目就越大。 3. 特征數量增加帶來的訓練、測試以及存儲的開銷都會增大。4.在某些模型中,例如基于距離計算的模型KMeans,KNN等模型,在進行距離計算時,維度過高會影響精度和性能。5.可視化分析的需要。在低維的情況下,例如二維,三維,我們可以把數據繪制出來,可視化地看到數據。當維度增高時,就難以繪制出來了。在機器學習中,有一個非常經典的維度災難的概念。用來描述當空間維度增加時,分析和組織高維空間,因體積指數增加而遇到各種問題場景。例如,100個平均分布的點能把一個單位區間以每個點距離不超過0.01采樣;而當維度增加到10后,如果以相鄰點距離不超過0.01小方格采樣單位超一單位超正方體,則需要10^20 個采樣點。
正是由于高維特征有如上描述的各種各樣的問題,所以我們需要進行特征降維和特征選擇等工作。特征降維常用的算法有PCA,LDA等。特征降維的目標是將高維空間中的數據集映射到低維空間數據,同時盡可能少地丟失信息,或者降維后的數據點盡可能地容易被區分
PCA算法
通過協方差矩陣的特征值分解能夠得到數據的主成分,以二維特征為例,兩個特征之間可能存在線性關系(例如運動的時速和秒速度),這樣就造成了第二維信息是冗余的。PCA的目標是發現這種特征之間的線性關系,并去除。
LDA算法
考慮label,降維后的數據點盡可能地容易被區分
特征選擇的目標是尋找最優特征子集。特征選擇能剔除不相關(irrelevant)或冗余(redundant )的特征,從而達到減少特征個數,提高模型精確度,減少運行時間的目的。另一方面,選取出真正相關的特征簡化模型,協助理解數據產生的過程。
特征選擇的一般過程如下圖所示:
主要分為產生過程,評估過程,停止條件和驗證過程。
隨機算法共同缺點:依賴隨機因素,有實驗結果難重現。
對特征的有效性進行分析,得到各個特征的特征權重,根據是否與模型有關可以分為1.與模型相關特征權重,使用所有的特征數據訓練出來模型,看在模型中各個特征的權重,由于需要訓練出模型,模型相關的權重與此次學習所用的模型比較相關。不同的模型有不同的模型權重衡量方法。例如線性模型中,特征的權重系數等。2.與模型無關特征權重。主要分析特征與label的相關性,這樣的分析是與這次學習所使用的模型無關的。與模型無關特征權重分析方法包括(1)交叉熵,(2)Information Gain,(3)Odds ratio,(4)互信息,(5)KL散度等
機器學習InAction系列講座介紹:結合美團在機器學習上的實踐,我們進行一個實戰(InAction)系列的介紹(帶“機器學習InAction系列”標簽的5篇文章),介紹機器學習在解決問題的實戰中所需的基本技術、經驗和技巧。本文主要介紹了數據清洗與特征處理,其他四篇文章主要介紹了機器學習解決問題流程和模型訓練、模型優化等工作。
數據分析咨詢請掃描二維碼
若不方便掃碼,搜微信號:CDAshujufenxi
在本文中,我們將探討 AI 為何能夠加速數據分析、如何在每個步驟中實現數據分析自動化以及使用哪些工具。 數據分析中的AI是什么 ...
2025-05-20當數據遇見人生:我的第一個分析項目 記得三年前接手第一個數據分析項目時,我面對Excel里密密麻麻的銷售數據手足無措。那些跳動 ...
2025-05-20在數字化運營的時代,企業每天都在產生海量數據:用戶點擊行為、商品銷售記錄、廣告投放反饋…… 這些數據就像散落的拼圖,而相 ...
2025-05-19在當今數字化營銷時代,小紅書作為國內領先的社交電商平臺,其銷售數據蘊含著巨大的商業價值。通過對小紅書銷售數據的深入分析, ...
2025-05-16Excel作為最常用的數據分析工具,有沒有什么工具可以幫助我們快速地使用excel表格,只要輕松幾步甚至輸入幾項指令就能搞定呢? ...
2025-05-15數據,如同無形的燃料,驅動著現代社會的運轉。從全球互聯網用戶每天產生的2.5億TB數據,到制造業的傳感器、金融交易 ...
2025-05-15大數據是什么_數據分析師培訓 其實,現在的大數據指的并不僅僅是海量數據,更準確而言是對大數據分析的方法。傳統的數 ...
2025-05-14CDA持證人簡介: 萬木,CDA L1持證人,某電商中廠BI工程師 ,5年數據經驗1年BI內訓師,高級數據分析師,擁有豐富的行業經驗。 ...
2025-05-13CDA持證人簡介: 王明月 ,CDA 數據分析師二級持證人,2年數據產品工作經驗,管理學博士在讀。 學習入口:https://edu.cda.cn/g ...
2025-05-12CDA持證人簡介: 楊貞璽 ,CDA一級持證人,鄭州大學情報學碩士研究生,某上市公司數據分析師。 學習入口:https://edu.cda.cn/g ...
2025-05-09CDA持證人簡介 程靖 CDA會員大咖,暢銷書《小白學產品》作者,13年頂級互聯網公司產品經理相關經驗,曾在百度、美團、阿里等 ...
2025-05-07相信很多做數據分析的小伙伴,都接到過一些高階的數據分析需求,實現的過程需要用到一些數據獲取,數據清洗轉換,建模方法等,這 ...
2025-05-06以下的文章內容來源于劉靜老師的專欄,如果您想閱讀專欄《10大業務分析模型突破業務瓶頸》,點擊下方鏈接 https://edu.cda.cn/g ...
2025-04-30CDA持證人簡介: 邱立峰 CDA 數據分析師二級持證人,數字化轉型專家,數據治理專家,高級數據分析師,擁有豐富的行業經驗。 ...
2025-04-29CDA持證人簡介: 程靖 CDA會員大咖,暢銷書《小白學產品》作者,13年頂級互聯網公司產品經理相關經驗,曾在百度,美團,阿里等 ...
2025-04-28CDA持證人簡介: 居瑜 ,CDA一級持證人國企財務經理,13年財務管理運營經驗,在數據分析就業和實踐經驗方面有著豐富的積累和經 ...
2025-04-27數據分析在當今信息時代發揮著重要作用。單因素方差分析(One-Way ANOVA)是一種關鍵的統計方法,用于比較三個或更多獨立樣本組 ...
2025-04-25CDA持證人簡介: 居瑜 ,CDA一級持證人國企財務經理,13年財務管理運營經驗,在數據分析就業和實踐經驗方面有著豐富的積累和經 ...
2025-04-25在當今數字化時代,數據分析師的重要性與日俱增。但許多人在踏上這條職業道路時,往往充滿疑惑: 如何成為一名數據分析師?成為 ...
2025-04-24以下的文章內容來源于劉靜老師的專欄,如果您想閱讀專欄《劉靜:10大業務分析模型突破業務瓶頸》,點擊下方鏈接 https://edu.cda ...
2025-04-23