
作者:俊欣
來源:關于數據分析與可視化
今天小編打算來講一講數據分析方面的內容,整理和總結一下Pandas在數據預處理和數據分析方面的硬核干貨,我們大致會說
首先我們來講一下Pandas模塊當中的crosstab()函數,它的作用主要是進行分組之后的信息統計,里面會用到聚合函數,默認的是統計行列組合出現的次數,參數如下
pandas.crosstab(index, columns, values=None,
rownames=None,
colnames=None,
aggfunc=None,
margins=False,
margins_name='All',
dropna=True,
normalize=False)
下面小編來解釋一下里面幾個常用的函數
我們通過幾個例子來進一步理解corss_tab()函數的作用,我們先導入要用到的模塊并且讀取數據集
import pandas as pd df = pd.read_excel( io="supermarkt_sales.xlsx", engine="openpyxl", sheet_name="Sales", skiprows=3, usecols="B:R", nrows=1000, )
output
我們先簡單來看幾個corsstab()函數的例子,代碼如下
pd.crosstab(df['城市'], df['顧客類型'])
output
顧客類型 會員 普通 省份 上海 124 115 北京 116 127 四川 26 35 安徽 28 12 廣東 30 36 .......
這里我們將省份指定為行索引,將會員類型指定為列,其中顧客類型有“會員”、“普通”兩種,舉例來說,四川省的會員顧客有26名,普通顧客有35名。
當然我們這里只是指定了一個列,也可以指定多個,代碼如下
pd.crosstab(df['省份'], [df['顧客類型'], df["性別"]])
output
顧客類型 會員 普通 性別 女性 男性 女性 男性 省份 上海 67 57 53 62 北京 53 63 59 68 四川 17 9 16 19 安徽 17 11 9 3 廣東 18 12 15 21 .....
這里我們將顧客類型進行了細分,有女性會員、男性會員等等,那么同理,對于行索引我們也可以指定多個,這里也就不過多進行演示。
有時候我們想要改變行索引的名稱或者是列方向的名稱,我們則可以這么做
pd.crosstab(df['省份'], df['顧客類型'],
colnames = ['顧客的類型'],
rownames = ['各省份名稱'])
output
顧客的類型 會員 普通 各省份名稱 上海 124 115 北京 116 127 四川 26 35 安徽 28 12 廣東 30 36
要是我們想在行方向以及列方向上加一個匯總的列,就需要用到crosstab()方法當中的margin參數,如下
pd.crosstab(df['省份'], df['顧客類型'], margins = True)
output
顧客類型 會員 普通 All 省份 上海 124 115 239 北京 116 127 243 ..... 江蘇 18 15 33 浙江 119 111 230 黑龍江 14 17 31 All 501 499 1000
你也可以給匯總的那一列重命名,用到的是margins_name參數,如下
pd.crosstab(df['省份'], df['顧客類型'],
margins = True, margins_name="匯總")
output
顧客類型 會員 普通 匯總 省份 上海 124 115 239 北京 116 127 243 ..... 江蘇 18 15 33 浙江 119 111 230 黑龍江 14 17 31 匯總 501 499 1000
而如果我們需要的數值是百分比的形式,那么就需要用到normalize參數,如下
pd.crosstab(df['省份'], df['顧客類型'],
normalize=True)
output
顧客類型 會員 普通
省份
上海 0.124 0.115 北京 0.116 0.127 四川 0.026 0.035 安徽 0.028 0.012 廣東 0.030 0.036 .......
要是我們更加傾向于是百分比,并且保留兩位小數,則可以這么來做
pd.crosstab(df['省份'], df['顧客類型'],
normalize=True).style.format('{:.2%}')
output
顧客類型 會員 普通 省份 上海 12.4% 11.5% 北京 11.6% 12.7% 四川 26% 35% 安徽 28% 12% 廣東 30% 36% .......
下面我們指定聚合函數,并且作用在我們指定的列上面,用到的參數是aggfunc參數以及values參數,代碼如下
pd.crosstab(df['省份'], df['顧客類型'],
values = df["總收入"],
aggfunc = "mean")
output
顧客類型 會員 普通
省份
上海 15.648738 15.253248 北京 14.771259 14.354390 四川 20.456135 14.019029 安徽 10.175893 11.559917 廣東 14.757083 18.331903 .......
如上所示,我們所要計算的是地處“上?!辈⑶沂恰皶T”顧客的總收入的平均值,除了平均值之外,還有其他的聚合函數,如np.sum加總或者是np.median求取平均值。
我們還可以指定保留若干位的小數,使用round()函數
df_1 = pd.crosstab(df['省份'], df['顧客類型'],
values=df["總收入"],
aggfunc="mean").round(2)
output
顧客類型 會員 普通
省份
上海 15.65 15.25 北京 14.77 14.35 四川 20.46 14.02 安徽 10.18 11.56 廣東 14.76 18.33 .......
對于很多數據分析師而言,在進行數據預處理的時候,需要將不同類型的數據轉換成時間格式的數據,我們來看一下具體是怎么來進行
首先是將整形的時間戳數據轉換成時間類型,看下面的例子
df = pd.DataFrame({'date': [1470195805, 1480195805, 1490195805], 'value': [2, 3, 4]}) pd.to_datetime(df['date'], unit='s')
output
0 2016-08-03 03:43:25 1 2016-11-26 21:30:05 2 2017-03-22 15:16:45 Name: date, dtype: datetime64[ns]
上面的例子是精確到秒,我們也可以精確到天,代碼如下
df = pd.DataFrame({'date': [1470, 1480, 1490], 'value': [2, 3, 4]}) pd.to_datetime(df['date'], unit='D')
output
0 1974-01-10 1 1974-01-20 2 1974-01-30 Name: date, dtype: datetime64[ns]
下面則是將字符串轉換成時間類型的數據,調用的也是pd.to_datetime()方法
pd.to_datetime('2022/01/20', format='%Y/%m/%d')
output
Timestamp('2022-01-20 00:00:00')
亦或是
pd.to_datetime('2022/01/12 11:20:10',
format='%Y/%m/%d %H:%M:%S')
output
Timestamp('2022-01-12 11:20:10')
這里著重介紹一下Python當中的時間日期格式化符號
當然我們進行數據類型轉換遇到錯誤的時候,pd.to_datetime()方法當中的errors參數就可以派上用場,
df = pd.DataFrame({'date': ['3/10/2000', 'a/11/2000', '3/12/2000'], 'value': [2, 3, 4]}) # 會報解析錯誤 df['date'] = pd.to_datetime(df['date'])
output
我們來看一下errors參數的作用,代碼如下
df['date'] = pd.to_datetime(df['date'], errors='ignore')
df
output
date value 0 3/10/2000 2 1 a/11/2000 3 2 3/12/2000 4
或者將不準確的值轉換成NaT,代碼如下
df['date'] = pd.to_datetime(df['date'], errors='coerce')
df
output
date value 0 2000-03-10 2 1 NaT 3 2 2000-03-12 4
接下來我們來看一下其他數據類型往數值類型轉換所需要經過的步驟,首先我們先創建一個DataFrame數據集,如下
df = pd.DataFrame({ 'string_col': ['1','2','3','4'], 'int_col': [1,2,3,4], 'float_col': [1.1,1.2,1.3,4.7], 'mix_col': ['a', 2, 3, 4], 'missing_col': [1.0, 2, 3, np.nan], 'money_col': ['£1,000.00','£2,400.00','£2,400.00','£2,400.00'], 'boolean_col': [True, False, True, True], 'custom': ['Y', 'Y', 'N', 'N']
})
output
我們先來查看一下每一列的數據類型
df.dtypes
output
string_col object int_col int64 float_col float64 mix_col object missing_col float64 money_col object boolean_col bool custom object dtype: object
可以看到有各種類型的數據,包括了布爾值、字符串等等,或者我們可以調用df.info()方法來調用,如下
df.info()
output
<class 'pandas.core.frame.DataFrame'> RangeIndex: 4 entries, 0 to 3 Data columns (total 8 columns):
# Column Non-Null Count Dtype
--- ------ -------------- ----- 0 string_col 4 non-null object 1 int_col 4 non-null int64 2 float_col 4 non-null float64 3 mix_col 4 non-null object 4 missing_col 3 non-null float64 5 money_col 4 non-null object 6 boolean_col 4 non-null bool 7 custom 4 non-null object dtypes: bool(1), float64(2), int64(1), object(4)
memory usage: 356.0+ bytes
我們先來看一下從字符串到整型數據的轉換,代碼如下
df['string_col'] = df['string_col'].astype('int')
df.dtypes
output
string_col int32 int_col int64 float_col float64 mix_col object missing_col float64 money_col object boolean_col bool custom object dtype: object
看到數據是被轉換成了int32類型,當然我們指定例如astype('int16')、astype('int8')或者是astype('int64'),當我們碰到量級很大的數據集時,會特別的有幫助。
那么類似的,我們想要轉換成浮點類型的數據,就可以這么來做
df['string_col'] = df['string_col'].astype('float')
df.dtypes
output
string_col float64 int_col int64 float_col float64 mix_col object missing_col float64 money_col object boolean_col bool custom object dtype: object
同理我們也可以指定轉換成astype('float16')、astype('float32')或者是astype('float128')
而如果數據類型的混合的,既有整型又有字符串的,正常來操作就會報錯,如下
df['mix_col'] = df['mix_col'].astype('int')
output
當中有一個字符串的數據"a",這個時候我們可以調用pd.to_numeric()方法以及里面的errors參數,代碼如下
df['mix_col'] = pd.to_numeric(df['mix_col'], errors='coerce')
df.head()
output
我們來看一下各列的數據類型
df.dtypes
output
string_col float64 int_col int64 float_col float64 mix_col float64 missing_col float64 money_col object boolean_col bool custom object dtype: object
"mix_col"這一列的數據類型被轉換成了float64類型,要是我們想指定轉換成我們想要的類型,例如
df['mix_col'] = pd.to_numeric(df['mix_col'], errors='coerce').astype('Int64')
df['mix_col'].dtypes
output
Int64Dtype()
而對于"money_col"這一列,在字符串面前有一個貨幣符號,并且還有一系列的標簽符號,我們先調用replace()方法將這些符號給替換掉,然后再進行數據類型的轉換
df['money_replace'] = df['money_col'].str.replace('£', '').str.replace(',','')
df['money_replace'] = pd.to_numeric(df['money_replace'])
df['money_replace']
output
0 1000.0 1 2400.0 2 2400.0 3 2400.0 Name: money_replace, dtype: float64
要是你熟悉正則表達式的話,也可以通過正則表達式的方式來操作,通過調用regex=True的參數,代碼如下
df['money_regex'] = df['money_col'].str.replace('[£,]', '', regex=True)
df['money_regex'] = pd.to_numeric(df['money_regex'])
df['money_regex']
另外我們也可以通過astype()方法,對多個列一步到位進行數據類型的轉換,代碼如下
df = df.astype({ 'string_col': 'float16', 'int_col': 'float16' })
或者在第一步數據讀取的時候就率先確定好數據類型,代碼如下
df = pd.read_csv( 'dataset.csv',
dtype={ 'string_col': 'float16', 'int_col': 'float16' }
)
數據分析咨詢請掃描二維碼
若不方便掃碼,搜微信號:CDAshujufenxi
解碼數據基因:從數字敏感度到邏輯思維 每當看到超市貨架上商品的排列變化,你是否會聯想到背后的銷售數據波動?三年前在零售行 ...
2025-05-23在本文中,我們將探討 AI 為何能夠加速數據分析、如何在每個步驟中實現數據分析自動化以及使用哪些工具。 數據分析中的AI是什么 ...
2025-05-20當數據遇見人生:我的第一個分析項目 記得三年前接手第一個數據分析項目時,我面對Excel里密密麻麻的銷售數據手足無措。那些跳動 ...
2025-05-20在數字化運營的時代,企業每天都在產生海量數據:用戶點擊行為、商品銷售記錄、廣告投放反饋…… 這些數據就像散落的拼圖,而相 ...
2025-05-19在當今數字化營銷時代,小紅書作為國內領先的社交電商平臺,其銷售數據蘊含著巨大的商業價值。通過對小紅書銷售數據的深入分析, ...
2025-05-16Excel作為最常用的數據分析工具,有沒有什么工具可以幫助我們快速地使用excel表格,只要輕松幾步甚至輸入幾項指令就能搞定呢? ...
2025-05-15數據,如同無形的燃料,驅動著現代社會的運轉。從全球互聯網用戶每天產生的2.5億TB數據,到制造業的傳感器、金融交易 ...
2025-05-15大數據是什么_數據分析師培訓 其實,現在的大數據指的并不僅僅是海量數據,更準確而言是對大數據分析的方法。傳統的數 ...
2025-05-14CDA持證人簡介: 萬木,CDA L1持證人,某電商中廠BI工程師 ,5年數據經驗1年BI內訓師,高級數據分析師,擁有豐富的行業經驗。 ...
2025-05-13CDA持證人簡介: 王明月 ,CDA 數據分析師二級持證人,2年數據產品工作經驗,管理學博士在讀。 學習入口:https://edu.cda.cn/g ...
2025-05-12CDA持證人簡介: 楊貞璽 ,CDA一級持證人,鄭州大學情報學碩士研究生,某上市公司數據分析師。 學習入口:https://edu.cda.cn/g ...
2025-05-09CDA持證人簡介 程靖 CDA會員大咖,暢銷書《小白學產品》作者,13年頂級互聯網公司產品經理相關經驗,曾在百度、美團、阿里等 ...
2025-05-07相信很多做數據分析的小伙伴,都接到過一些高階的數據分析需求,實現的過程需要用到一些數據獲取,數據清洗轉換,建模方法等,這 ...
2025-05-06以下的文章內容來源于劉靜老師的專欄,如果您想閱讀專欄《10大業務分析模型突破業務瓶頸》,點擊下方鏈接 https://edu.cda.cn/g ...
2025-04-30CDA持證人簡介: 邱立峰 CDA 數據分析師二級持證人,數字化轉型專家,數據治理專家,高級數據分析師,擁有豐富的行業經驗。 ...
2025-04-29CDA持證人簡介: 程靖 CDA會員大咖,暢銷書《小白學產品》作者,13年頂級互聯網公司產品經理相關經驗,曾在百度,美團,阿里等 ...
2025-04-28CDA持證人簡介: 居瑜 ,CDA一級持證人國企財務經理,13年財務管理運營經驗,在數據分析就業和實踐經驗方面有著豐富的積累和經 ...
2025-04-27數據分析在當今信息時代發揮著重要作用。單因素方差分析(One-Way ANOVA)是一種關鍵的統計方法,用于比較三個或更多獨立樣本組 ...
2025-04-25CDA持證人簡介: 居瑜 ,CDA一級持證人國企財務經理,13年財務管理運營經驗,在數據分析就業和實踐經驗方面有著豐富的積累和經 ...
2025-04-25在當今數字化時代,數據分析師的重要性與日俱增。但許多人在踏上這條職業道路時,往往充滿疑惑: 如何成為一名數據分析師?成為 ...
2025-04-24