熱線電話:13121318867

登錄
首頁精彩閱讀基于同步行為的反欺詐算法SynchroTrap實現細節
基于同步行為的反欺詐算法SynchroTrap實現細節
2022-02-28
收藏

作者:小伍哥

來源:小伍哥聊風控

上次分享了非常牛逼的不需要介質就能進行團伙挖掘的算法,大家都說是個好算法,但是實現細節還是有些問題。

由此可見,風控的實踐大于算法,就像繪畫,給我同樣的材料,打死我都成不了梵高。所以風控一定要多看多試驗。我這里用一個簡單的數據集,具體的把實現過程分享出來,并圖解每一步的原理,希望對大家有幫助。

一、梳理已有或者想應用的場景

首先需要梳理滿足該算法數據條件的場景,最少的條件就是:用戶+時間戳。舉例一些具體的場景,大家感官更明顯。

用戶下單環節(A、B用戶多天總是在較短的時間內購買商家A,然后是商家B)

  • 用戶A 2021-11-16 21:22:02 商家A
  • 用戶B 2021-11-16 21:32:02 商家A
  • 用戶A 2021-11-18 11:18:02 商家B
  • 用戶B 2021-11-18 11:54:01 商家B

某個領券環節(A、B用戶多天總是在較短的時間內去領券)

  • 用戶A 2021-11-16 21:22:02 活動A
  • 用戶B 2021-11-16 21:32:02 活動A
  • 用戶A 2021-11-18 11:18:02 活動B
  • 用戶B 2021-11-18 11:54:01 活動B

還有更多的環節,都可能存在這種同步行為

電商的評價環節

拼多多的砍價活動

抖音的點贊/關注

微信的投票

上述一系列的活動,存在一些利益群體,控制大量的賬號,并且在不同的時間,同時去完成上述的任務,則可能存在同步行為,我們就可以構建圖網絡,把他們一網打盡。

我們本次使用評價數據進行講解,數據格式如下

二、數據處理環節

面對大規模的數據,我一般都是按場景-天進行拆分,然后天-場景進行合并,最后得出一個更大規模的圖??梢远鄨鼍叭罩?a href='/map/shujujuhe/' style='color:#000;font-size:inherit;'>數據聚合到一起進行挖掘,也可以單一場景計算完了在聚合,我建議第二種方法,計算量更小,并且算完一個場景就能夠落地應用了,項目時間不會太長。

最難處理的就是時間差這個環節,下面我們開始:

1、首先我們需要做的就是把時間離散化(我按小時計算)

具體的就是以當前小時為中心,向前一小時,向后一小,我寫了函數,可以直接使用。如下的例子。0點分為了(23,0)(0,1),23為前一天的。

2021-11-16 00:03:32
20211115(23#00) 20211116(00#01)

函數寫好了后,對每個時間應用。

import datetime

def Time2Str(tsm):

t1 = datetime.datetime.fromisoformat(tsm)

t0 = t1-datetime.timedelta(days=0, hours=1)

t2 = t1+datetime.timedelta(days=0, hours=1)

str1 = t0.strftime("%Y%m%d")+'(' +str(t0.hour).rjust(2,'0')+'#'+str(t1.hour).rjust(2,'0')+')'

str2 = t1.strftime("%Y%m%d")+'(' +str(t1.hour).rjust(2,'0')+'#'+str(t2.hour).rjust(2,'0')+')'

return str1+';'+str2

Time2Str('2021-11-16 15:51:39')#測試下

'20211116(14#15);20211116(15#16)'

我們把上面的數據系統化,后面的案例好用

import pandas as pd

df = pd.DataFrame({

'Buy':['BUY_03','BUY_02','BUY_01','BUY_04','BUY_03','BUY_02','BUY_01','BUY_04'],

'Times':['2021-11-16 00:03:32','2021-11-16 00:12:23','2021-11-16 00:22:07','2021-11-16 21:10:24',

'2021-11-16 21:18:05','2021-11-16 21:22:02','2021-11-16 21:42:57','2021-11-16 23:51:39'],

'Seller':['Y','Y','Y','E','E','E','E','Y']

# 時間離散化

df['tsm'] = df['Times'].apply(Time2Str)

2、對數據進行裂變,一行變兩行,這一步是關鍵,需要重點理解

離散化以后,需要一行變多行,為的就是同一個小時內的兩個對象能夠匹配,一行變多行的代碼如下。SQL的話,也是對應的函數的,比Pandas簡單很多

df = df.set_index(["Buy", "Times",'Seller'])["tsm"].str.split(";", expand=True)

.stack().reset_index(drop=True, level=-1).reset_index().rename(columns={0: "tsm"})

print(df)

3、數據表進行自我匹配,并還需要作差,時間限定小于自己的閾值

對于變完之后的數據,進行匹配,加了時間約束和商家約束,['Seller','tsm'],當然你也可以只加時間約束,不加商家約束。約束計算完了,還需要進一步計算,其實匹配完的是2小時內的,還需要作差計算一小時內的,不滿足條件的排除,并且把自己和自己匹配的也要排除,沒啥意義。計算完了得到下面的結果。

df_0 = pd.merge(df,df,on =['Seller','tsm'],how='inner')

df_1 = df_0[df_0['Buy_x']!=df_0['Buy_y']]

df_1['diff'] = (pd.to_datetime(df_0['Times_x'])-

pd.to_datetime(df_0['Times_y'])).dt.seconds/3600/24

4、一天的數據聚合就得到下面的結果了

匹配得到的是明細數據,還需要進行聚合,得到兩個用戶相交的次數,就可以得到再當天的一個關聯情況了。如下圖所示:

# 數據聚合

df_1.groupby(['Buy_x','Buy_y']).agg({'Seller': pd.Series.nunique}).reset_index()

5、多天的數據聚合

多天數據進行聚合,假如我們的閾值是大于2,那標黃的部分,就將被舍棄掉

6、總體相似度計算

聚合了,還要進行相似度計算,分別計算每個用戶出現的總次數。為什么要計算這個呢,舉一個極端的例子,假如用戶A自己出現了一萬次,與B共同出現了5次,那這可能是巧合,但是如果A總共出現了5次,且5次都和B出現,那他倆是團伙的概率要大很多。

按上面的數據,我們還要單獨計算X出現的次數,Y出現的次數,并且X+Y-X∩Y求出并集,就可以用杰卡德算法進行相似度計算了,把相似度低的排除即可

到此計算完了之后,就可以構圖環節就算完成了,下一步是如何進行分群,我們這里采用LPA標簽傳播算法就可以。

數據分析咨詢請掃描二維碼

若不方便掃碼,搜微信號:CDAshujufenxi

數據分析師資訊
更多

OK
客服在線
立即咨詢
日韩人妻系列无码专区视频,先锋高清无码,无码免费视欧非,国精产品一区一区三区无码
客服在線
立即咨詢