熱線電話:13121318867

登錄
首頁大數據時代干貨分享 | 推薦一個更高效的數據清洗方法,建議收藏
干貨分享 | 推薦一個更高效的數據清洗方法,建議收藏
2021-12-20
收藏

作者:俊欣

來源:關于數據分析與可視化

今天來分享一個高效率的數據清洗的方法,畢竟我們平常在工作和生活當中經常會遇到需要去處理雜七雜八的數據集,有一些數據集中有缺失值、有些數據集中有極值、重復值等等。這次用到的數據集樣本在文末有獲取的辦法。

01、導入庫和讀取數據

我們首先導入所需要用到的庫,并且讀取數據

import pandas as pd import numpy as np


df = pd.read_csv("DirectMarketing.csv")

我們先來大致地看一下數據集中各個特征值的情況,通過info()這個方法

df.info()

02、去除掉缺失值重復值

我們看到上面的“History”這一列,只有697條數據不是空值,那就意味著還有另外3條數據是空值,與之對應的方式有將含有缺失值的數據刪掉,或者將缺失值的部分替換為是中位數或者是平均數,

# 將缺失值給移除掉 df.dropna(axis = 0, inplace = True)

要是數據集中存在大量的缺失值,只是簡簡單單地移除掉怕是會影響到數據的完整性,如果是數值類型的特征值,就用用平均值或者是中位數來替換,如果是離散類型的缺失值,就用眾數來替換

def fill_missing_values_num(df, col_name): val = df[col_name].median()
    df[col_name].fillna(val, inplace = True) return df
def fill_missing_values_cate(df, col_name): val = df[col_name].value_counts().index.tolist()[0]
    df[col_name].fillna(val, inplace = True) return df

而可能存在重復值的部分,pandas當中有drop_ducplicates()方法來進行處理

df.drop_duplicates(inplace = True)

最后我們封裝成一個函數,對于缺失值的處理小編這里選擇用中位數填充的方式來處理

def fill_missing_values_and_drop_duplicates(df, col_name): val = df[col_name].value_counts().index.tolist()[0]
    df[col_name].fillna(val, inplace = True) return df.drop_duplicates()

03、數據類型的轉換

經常使用pandas的人可能都有這種體驗,它經常會將數據集中的變量類型直接變成object,這里我們可以直接使用“convert_dtypes”來進行批量的轉換,它會自動推斷數據原來的類型,并實現轉換,并且打印出來里面各列的數據類型,封裝成一個函數

def convert_dtypes(df): print(df.dtypes) return df.convert_dtypes()

04、極值的檢測

對于極值的檢測有多種方式,例如我們可以通過箱型圖的方式來查看

sample = [11, 500, 20, 24, 400, 25, 10, 21, 13, 8, 15, 10] plt.boxplot(sample, vert=False) plt.title("箱型圖來檢測異常值",fontproperties="SimHei") plt.xlabel('樣本數據',fontproperties="SimHei")

我們可以通過箱型圖來明顯的看出當中有兩個異常值,也就是400500這兩個,箱型圖最大值、上四分位數(Q3)、中位數(Q2)、下四分位數和最小值五個統計量組成,其中Q1和Q3之間的間距稱為是四分位間距(interquartile range,IQR),而通常若是樣本中的數據大于Q3+1.5IQR小于Q1-1.5IQR定義為異常值

當然了除此之外,還可以通過z-score的方法來檢測,Z-score是標準差為單位去度量某個數據偏離平均數的距離,計算公式為

我們用python來實現一下當中的步驟

outliers = [] def detect_outliers_zscore(data, threshold): mean = np.mean(data) std = np.std(data) for i in data: z_score = (i-mean)/std if (np.abs(z_score) > threshold): outliers.append(i) return outliers# Driver code

而對待異常值的方式,首先最直接的就是將異常值去掉,我們檢測到異常值所在的行數,然后刪掉該行,當然當數據集當中的異常值數量很多的時候,移除掉必然會影響數據集的完整性,從而影響建模最后的效果

def remove_outliers1(df, col_name): low = np.quantile(df[col_name], 0.05)
    high = np.quantile(df[col_name], 0.95) return df[df[col_name].between(low, high, inclusive=True)]

其次我們可以將異常值替換成其他的值,例如上面箱型圖提到的上四分位數或者是下四分位數

def remove_outliers2(df, col_name): low_num = np.quantile(df[col_name], 0.05) high_num = np.quantile(df[col_name], 0.95) df.loc[df[col_name] > high_num, col_name] = high_num  df.loc[df[col_name] < low_num , col_name] = low_num return df

因此回到上面用到的樣本數據集,我們將之前數據清洗的函數統統整合起來,用pipe()的方法來串聯起來,形成一個數據清洗的標準模板

def fill_missing_values_and_drop_duplicates(df, col_name): val = df[col_name].value_counts().index.tolist()[0]
    df[col_name].fillna(val, inplace = True) return df.drop_duplicates() def remove_outliers2(df, col_name): low_num = np.quantile(df[col_name], 0.05)
    high_num = np.quantile(df[col_name], 0.95)
    df.loc[df[col_name] > float(high_num), col_name] = high_num return df def convert_dtypes(df): print(df.dtypes) return df.convert_dtypes()
  
df_cleaned = (df.pipe(fill_missing_values_and_drop_duplicates, 'History').
                pipe(remove_outliers2, 'Salary').
                pipe(convert_dtypes))

06、寫在最后

所以我們之后再數據清洗的過程當中,可以將這種程序化的清洗步驟封裝成一個個函數,然后用pipe()串聯起來,用在每一個數據分析的項目當中,更快地提高我們工作和分析的效率。

數據分析咨詢請掃描二維碼

若不方便掃碼,搜微信號:CDAshujufenxi

數據分析師資訊
更多

OK
客服在線
立即咨詢
日韩人妻系列无码专区视频,先锋高清无码,无码免费视欧非,国精产品一区一区三区无码
客服在線
立即咨詢