
作者:閑歡
來源:Python 技術
今天在瀏覽知乎時,發現一個有趣的問題:
如何優化 Python 爬蟲的速度?
他的問題描述是:
目前在寫一個 Python 爬蟲,單線程 urllib 感覺過于慢了,達不到數據量的要求(十萬級頁面)。求問有哪些可以提高爬取效率的方法?
這個問題還蠻多人關注的,但是回答的人卻不多。
我今天就來嘗試著回答一下這個問題。
程序提速這個問題其實解決方案就擺在那里,要么通過并發來提高單位時間內處理的工作量,要么從程序本身去找提效點,比如爬取的數據用gzip傳輸、提高處理數據的速度等。
我會分別從幾種常見的并發方法去做同一件事情,從而比較處理效率。
我們先來一個簡單的爬蟲,看看單線程處理會花費多少時間?
import time import requests from datetime import datetime def fetch(url): r = requests.get(url)
print(r.text)
start = datetime.now()
t1 = time.time() for i in range(100):
fetch('http://httpbin.org/get')
print('requests版爬蟲耗時:', time.time() - t1) # requests版爬蟲耗時:54.86306357383728
我們用一個爬蟲的測試網站,測試爬取100次,用時是54.86秒。
下面我們將上面的程序改為多線程版本:
import threading import time import requests
def fetch():
r = requests.get('http://httpbin.org/get') print(r.text)
t1 = time.time()
t_list = [] for i in range(100):
t = threading.Thread(target=fetch, args=())
t_list.append(t)
t.start() for t in t_list:
t.join() print("多線程版爬蟲耗時:", time.time() - t1)
# 多線程版爬蟲耗時:0.8038511276245117
我們可以看到,用上多線程之后,速度提高了68倍。其實用這種方式的話,由于我們并發操作,所以跑100次跟跑一次的時間基本是一致的。這只是一個簡單的例子,實際情況中我們不可能無限制地增加線程數。
除了多線程之外,我們還可以使用多進程來提高爬蟲速度:
import requests import time import multiprocessing from multiprocessing import Pool
MAX_WORKER_NUM = multiprocessing.cpu_count() def fetch(): r = requests.get('http://httpbin.org/get')
print(r.text) if __name__ == '__main__':
t1 = time.time()
p = Pool(MAX_WORKER_NUM) for i in range(100):
p.apply_async(fetch, args=())
p.close()
p.join()
print('多進程爬蟲耗時:', time.time() - t1)
多進程爬蟲耗時: 7.9846765995025635
我們可以看到多進程處理的時間是多線程的10倍,比單線程版本快7倍。
我們將程序改為使用 aiohttp 來實現,看看效率如何:
import aiohttp import asyncio import time async def fetch(client): async with client.get('http://httpbin.org/get') as resp: assert resp.status == 200 return await resp.text() async def main(): async with aiohttp.ClientSession() as client:
html = await fetch(client)
print(html)
loop = asyncio.get_event_loop()
tasks = [] for i in range(100):
task = loop.create_task(main())
tasks.append(task)
t1 = time.time()
loop.run_until_complete(main())
print("aiohttp版爬蟲耗時:", time.time() - t1)
aiohttp版爬蟲耗時: 0.6133313179016113
我們可以看到使用這種方式實現,比單線程版本快90倍,比多線程還快。
通過上面的程序對比,我們可以看到,對于多任務爬蟲來說,多線程、多進程、協程這幾種方式處理效率的排序為:aiohttp > 多線程 > 多進程。因此,對于簡單的爬蟲任務,如果想要提高效率,可以考慮使用協程。但是同時也要注意,這里只是簡單的示例,實際運用中,我們一般會用線程池、進程池、協程池去操作。
這就是問題的答案了嗎?
對于一個嚴謹的程序員來說,當然不是,實際上還有一些優化的庫,例如grequests,可以從請求上解決并發問題。實際的處理過程中,肯定還有其他的優化點,這里只是從最常見的幾種并發方式去比較而已,應付簡單爬蟲還是可以的,其他的方式歡迎大家在評論區留言探討。
數據分析咨詢請掃描二維碼
若不方便掃碼,搜微信號:CDAshujufenxi
CDA數據分析師證書考試體系(更新于2025年05月22日)
2025-05-26解碼數據基因:從數字敏感度到邏輯思維 每當看到超市貨架上商品的排列變化,你是否會聯想到背后的銷售數據波動?三年前在零售行 ...
2025-05-23在本文中,我們將探討 AI 為何能夠加速數據分析、如何在每個步驟中實現數據分析自動化以及使用哪些工具。 數據分析中的AI是什么 ...
2025-05-20當數據遇見人生:我的第一個分析項目 記得三年前接手第一個數據分析項目時,我面對Excel里密密麻麻的銷售數據手足無措。那些跳動 ...
2025-05-20在數字化運營的時代,企業每天都在產生海量數據:用戶點擊行為、商品銷售記錄、廣告投放反饋…… 這些數據就像散落的拼圖,而相 ...
2025-05-19在當今數字化營銷時代,小紅書作為國內領先的社交電商平臺,其銷售數據蘊含著巨大的商業價值。通過對小紅書銷售數據的深入分析, ...
2025-05-16Excel作為最常用的數據分析工具,有沒有什么工具可以幫助我們快速地使用excel表格,只要輕松幾步甚至輸入幾項指令就能搞定呢? ...
2025-05-15數據,如同無形的燃料,驅動著現代社會的運轉。從全球互聯網用戶每天產生的2.5億TB數據,到制造業的傳感器、金融交易 ...
2025-05-15大數據是什么_數據分析師培訓 其實,現在的大數據指的并不僅僅是海量數據,更準確而言是對大數據分析的方法。傳統的數 ...
2025-05-14CDA持證人簡介: 萬木,CDA L1持證人,某電商中廠BI工程師 ,5年數據經驗1年BI內訓師,高級數據分析師,擁有豐富的行業經驗。 ...
2025-05-13CDA持證人簡介: 王明月 ,CDA 數據分析師二級持證人,2年數據產品工作經驗,管理學博士在讀。 學習入口:https://edu.cda.cn/g ...
2025-05-12CDA持證人簡介: 楊貞璽 ,CDA一級持證人,鄭州大學情報學碩士研究生,某上市公司數據分析師。 學習入口:https://edu.cda.cn/g ...
2025-05-09CDA持證人簡介 程靖 CDA會員大咖,暢銷書《小白學產品》作者,13年頂級互聯網公司產品經理相關經驗,曾在百度、美團、阿里等 ...
2025-05-07相信很多做數據分析的小伙伴,都接到過一些高階的數據分析需求,實現的過程需要用到一些數據獲取,數據清洗轉換,建模方法等,這 ...
2025-05-06以下的文章內容來源于劉靜老師的專欄,如果您想閱讀專欄《10大業務分析模型突破業務瓶頸》,點擊下方鏈接 https://edu.cda.cn/g ...
2025-04-30CDA持證人簡介: 邱立峰 CDA 數據分析師二級持證人,數字化轉型專家,數據治理專家,高級數據分析師,擁有豐富的行業經驗。 ...
2025-04-29CDA持證人簡介: 程靖 CDA會員大咖,暢銷書《小白學產品》作者,13年頂級互聯網公司產品經理相關經驗,曾在百度,美團,阿里等 ...
2025-04-28CDA持證人簡介: 居瑜 ,CDA一級持證人國企財務經理,13年財務管理運營經驗,在數據分析就業和實踐經驗方面有著豐富的積累和經 ...
2025-04-27數據分析在當今信息時代發揮著重要作用。單因素方差分析(One-Way ANOVA)是一種關鍵的統計方法,用于比較三個或更多獨立樣本組 ...
2025-04-25CDA持證人簡介: 居瑜 ,CDA一級持證人國企財務經理,13年財務管理運營經驗,在數據分析就業和實踐經驗方面有著豐富的積累和經 ...
2025-04-25