大數據時代,各行各業對數據採集的需求日益增多,網路爬蟲的運用也更為廣泛,越來越多的人開始學習網路爬蟲這項技術,K哥爬蟲此前已經推出不少爬蟲進階、逆向相關文章,為實現從易到難全方位覆蓋,特設【0基礎學爬蟲】專欄,幫助小白快速入門爬蟲,本期為爬蟲的基本介紹。 一、爬蟲概述 爬蟲又稱網路蜘蛛、網路機器人, ...
大數據時代,各行各業對數據採集的需求日益增多,網路爬蟲的運用也更為廣泛,越來越多的人開始學習網路爬蟲這項技術,K哥爬蟲此前已經推出不少爬蟲進階、逆向相關文章,為實現從易到難全方位覆蓋,特設【0基礎學爬蟲】專欄,幫助小白快速入門爬蟲,本期為爬蟲的基本介紹。
一、爬蟲概述
爬蟲又稱網路蜘蛛、網路機器人,網路爬蟲按照系統結構和實現技術,大致可以分為以下幾種類型:
- 通用網路爬蟲(Scalable Web Crawler):抓取互聯網上所有數據,爬取對象從一些種子 URL 擴充到整個 Web,主要為門戶站點搜索引擎和大型 Web 服務提供商採集數據,是捜索引擎抓取系統(Baidu、Google、Yahoo 等)的重要組成部分。
- 聚焦網路爬蟲(Focused Crawler):抓取互聯網上特定數據,按照預先定義好的主題有選擇地進行網頁爬取的一種爬蟲,將爬取的目標網頁定位在與主題相關的頁面中,選擇性地爬取特定領域信息。
- 增量式網路爬蟲(Incremental Web Crawler):抓取互聯網上剛更新的數據,採取增量式更新和只爬取新產生的或者已經發生變化網頁,它能夠在一定程度上保證所爬取的頁面是儘可能新的頁面,減少時間和空間上的耗費。
- 深層網路爬蟲(Deep Web Crawler):表層網頁(Surface Web)是指傳統搜索引擎可以索引的頁面,以超鏈接可以到達的靜態網頁為主構成的 Web 頁面;深層網頁(Deep Web)是指不能通過靜態鏈接獲取的、隱藏在搜索表單後的,只有用戶提交一些關鍵詞才能獲得的 Web 頁面。在互聯網中,深層頁面的數量往往比表層頁面的數量要多很多。
爬蟲程式能模擬瀏覽器請求站點的行為,把站點返回的HTML代碼/JSON數據/二進位數據(圖片、視頻、音頻) 等爬取到本地,進而提取自己需要的數據,並存放起來使用,每一個程式都有自己的規則,網路爬蟲也不例外,它會根據人們施加的規則去採集信息,這些規則為網路爬蟲演算法,根據使用者的目的,爬蟲可以實現不同的功能,但所有爬蟲的本質,都是方便人們在海量的互聯網信息中找到並下載到自己要的那一類,提升信息獲取效率。
爬蟲採集的都是正常用戶能瀏覽到的內容,而非所謂的 ”入侵伺服器“,常說高水準者可 ”所見即所得“,意為只要是能看的內容就能爬取到,希望各位都能達到這個程度~
二、爬蟲的用途
現如今大數據時代已經到來,網路爬蟲技術成為這個時代不可或缺的一部分,企業需要數據來分析用戶行為、自己產品的不足之處以及競爭對手的信息等,而這一切的首要條件就是數據的採集。網路爬蟲的價值其實就是數據的價值,在互聯網社會中,數據是無價之寶,一切皆為數據,誰擁有了大量有用的數據,誰就擁有了決策的主動權。
網路爬蟲目前主要的應用領域如:搜索引擎、數據採集、數據分析、信息聚合、競品監控、認知智能、輿情分析等等,爬蟲業務相關的公司數不勝數,如百度、谷歌、天眼查、企查查、新榜、飛瓜等等,在大數據時代,爬蟲的應用範圍廣、需求大,簡單舉幾個貼近生活的例子:
-
求職需求:獲取各個城市的招聘信息及薪資標準,方便篩選出適合自己的;
-
租房需求:獲取各個城市的租房信息,以便挑選出心儀的房源;
-
美食需求:獲取各個地方的好評美食,讓吃貨不迷路;
-
購物需求:獲取各個商家同一個商品的價格及折扣信息,讓購物更實惠;
-
購車需求:獲取心儀車輛近年的價格波動,以及不同渠道各車型的價格,助力挑選愛車。
三、URI 及 URL 的含義
URI(Uniform Resource Identifier),即統一資源標誌符,URI(Uniform Resource Location),即統一資源定位符,例如 https://www.kuaidaili.com/ ,既是一個 URI,也是一個 URL,URL 是 URI 的子集,對於一般的網頁鏈接,習慣稱為 URL,一個 URL 的基本組成格式如下:
scheme://[username:password@]host[:port][/path][;parameters][?query][#fragment]
各部分含義如下:
-
scheme:獲取資源使用的協議,例如 http、https、ftp 等,沒有預設值,scheme 也被稱為 protocol;
-
username:password:用戶名與密碼,某些情況下 URL 需要提供用戶名和密碼才能訪問,這是個特殊的存在,一般訪問 ftp 時會用到,顯式的表明瞭訪問資源的用戶名與密碼,但是可以不寫,不寫的話可能會讓輸入用戶名密碼;
-
host:主機地址,可以是功能變數名稱或 IP 地址,例如 www.kuaidaili.com、112.66.251.209;
-
port:埠,伺服器設定的服務埠,http 協議的預設埠為 80,https 協議的預設埠為 443,例如 https://www.kuaidaili.com/ 相當於 https://www.kuaidaili.com:443;
-
path:路徑,指的是網路資源在伺服器中的指定地址,通過 host:port 我們能找到主機,但是主機上文件很多,通過 path 則可以定位具體文件。例如 https://www.baidu.com/file/index.html,path 為 /file/index.html,表示我們訪問 /file/index.html 這個文件;
-
parameters:參數,用來指定訪問某個資源時的附加信息,主要作用就是像伺服器提供額外的參數,用來表示本次請求的一些特性,例如 https://www.kuaidaili.com/dps;kspider,kspider 即參數,現在用的很少,大多數將 query 部分作為參數;
-
query:查詢,由於查詢某類資源,若多個查詢,則用 & 隔開,通過 GET 方式請求的參數,例如:https://www.kuaidaili.com/dps/?username=kspider&type=spider,query 部分為 username=kspider&type=spider,指定了 username 為 kspider,type 為 spider;
-
fragment:片段,對資源描述的部分補充,用來標識次級資源,例如 https://www.kuaidaili.com/dps#kspider,kspider 即為 fragment 的值:
-
應用:單頁面路由、HTML 錨點;
-
#
有別於?
,?
後面的查詢字元串會被網路請求帶上伺服器,而 fragment 不會被髮送的伺服器; -
fragment 的改變不會觸發瀏覽器刷新頁面,但是會生成瀏覽歷史;
-
fragment 會被瀏覽器根據文件媒體類型(MIME type)進行對應的處理;
-
預設情況下 Google 的搜索引擎會忽略
#
及其後面的字元串,如果想被瀏覽引擎讀取,需要在#
後緊跟一個!
,Google 會自動將其後面的內容轉成查詢字元串_escaped_fragment_
的值,如 https://www.kuaidaili.com/dps#!kspider,轉換後為 https://www.kuaidaili.com/dps?escaped_fragment=kspider。
-
由於爬蟲的目標是獲取資源,而資源都存儲在某個主機上,所以爬蟲爬取數據時必須要有一個目標的 URL 才可以獲取數據,因此,URL 是爬蟲獲取數據的基本依據,準確理解 URL 的含義對爬蟲學習有很大幫助。
四、爬蟲的基本流程
- 發起請求:通過 URL 向伺服器發起 Request 請求(同打開瀏覽器,輸入網址瀏覽網頁),請求可以包含額外的 headers、cookies、proxies、data 等信息,Python 提供了許多庫,幫助我們實現這個流程,完成 HTTP 請求操作,如 urllib、requests 等;
- 獲取響應內容:如果伺服器正常響應,會接收到 Response,Response 即為我們所請求的網頁內容,包含 HTML(網頁源代碼),JSON 數據或者二進位的數據(視頻、音頻、圖片)等;
- 解析內容:接收到響應內容後,需要對其進行解析,提取數據內容,如果是 HTML(網頁源代碼),則可以使用網頁解析器進行解析,如正則表達式(re)、Beautiful Soup、pyquery、lxml 等;如果是 JSON 數據,則可以轉換成 JSON 對象進行解析;如果是二進位的數據,則可以保存到文件進行進一步處理;
- 保存數據:可以保存到本地文件(txt、json、csv 等),或者保存到資料庫(MySQL,Redis,MongoDB 等),也可以保存至遠程伺服器,如藉助 SFTP 進行操作等。
五、爬蟲的基本架構
爬蟲的基本架構主要由五個部分組成,分別是爬蟲調度器、URL 管理器、網頁下載器、網頁解析器、信息採集器:
- 爬蟲調度器:相當於一臺電腦的 CPU,主要負責調度 URL 管理器、下載器、解析器之間的協調工作,用於各個模塊之間的通信,可以理解為爬蟲的入口與核心,爬蟲的執行策略在此模塊進行定義;
- URL 管理器:包括待爬取的 URL 地址和已爬取的 URL 地址,防止重覆抓取 URL 和迴圈抓取 URL,實現 URL 管理器主要用三種方式,通過記憶體、資料庫、緩存資料庫來實現;
- 網頁下載器:負責通過 URL 將網頁進行下載,主要是進行相應的偽裝處理模擬瀏覽器訪問、下載網頁,常用庫為 urllib、requests 等;
- 網頁解析器:負責對網頁信息進行解析,可以按照要求提取出有用的信息,也可以根據 DOM 樹的解析方式來解析。如正則表達式(re)、Beautiful Soup、pyquery、lxml 等,根據實際情況靈活使用;
- 數據存儲器:負責將解析後的信息進行存儲、顯示等數據處理。
六、robots 協議
robots 協議也稱爬蟲協議、爬蟲規則等,是指網站可建立一個 robots.txt 文件來告訴搜索引擎哪些頁面可以抓取,哪些頁面不能抓取,而搜索引擎則通過讀取 robots.txt 文件來識別這個頁面是否允許被抓取。但是,這個robots協議不是防火牆,也沒有強制執行力,搜索引擎完全可以忽視 robots.txt 文件去抓取網頁的快照。 如果想單獨定義搜索引擎的漫游器訪問子目錄時的行為,那麼可以將自定的設置合併到根目錄下的 robots.txt,或者使用 robots 元數據(Metadata,又稱元數據)。
robots 協議並不是一個規範,而只是約定俗成的,所以並不能保證網站的隱私,俗稱 “君子協議”。
robots.txt 文件內容含義:
- User-agent:, 這裡的 * 代表的所有的搜索引擎種類, 是一個通配符
- Disallow: /admin/, 這裡定義是禁止爬取 admin 目錄下麵的目錄
- Disallow: /require/, 這裡定義是禁止爬取 require 目錄下麵的目錄
- Disallow:/ABC/, 這裡定義是禁止爬取 ABC 目錄下麵的目錄
- Disallow:
/cgi-bin/*.htm
, 禁止訪問 /cgi-bin/ 目錄下的所有以 ".htm" 為尾碼的 URL(包含子目錄) - Disallow:
/*?*
, 禁止訪問網站中所有包含問號 (?) 的網址 - Disallow:/.jpg$, 禁止抓取網頁所有的 .jpg 格式的圖片
- Disallow:/ab/adc.html, 禁止爬取 ab 文件夾下麵的 adc.html 文件
- Allow:/cgi-bin/, 這裡定義是允許爬取 cgi-bin 目錄下麵的目錄
- Allow:/tmp, 這裡定義是允許爬取 tmp 的整個目錄
- Allow: .htm$, 僅允許訪問以 ".htm" 為尾碼的 URL
- Allow: .gif$, 允許抓取網頁和 gif 格式圖片
- Sitemap:網站地圖, 告訴爬蟲這個頁面是網站地圖
查看網站 robots 協議,網站 url 加上尾碼 robotst.txt 即可,以快代理為例:
https://www.kuaidaili.com/
- 禁止所有搜索引擎訪問網站的任何部分
- 禁止爬取 /doc/using/ 目錄下麵的目錄
- 禁止爬取 /doc/dev 目錄下麵所有以 sdk 開頭的目錄及文件
七、爬蟲與法律
近年來,與網路爬蟲相關的法律案件和新聞報道層出不窮,推薦觀看:K哥爬蟲普法專欄,不論是不是爬蟲行業的可能都聽說過一句 “爬蟲學的好,牢飯吃到飽”,甚至不少人覺得爬蟲本身就是有問題的,處於灰色地帶,抗拒以致不敢學爬蟲,但實際並不是這樣,爬蟲作為一種電腦技術,其技術本身是具有中立性的,法律也並沒禁止爬蟲技術,當今互聯網很多技術是依賴於爬蟲技術而發展的,公開數據、不做商業目的、不涉及個人隱私、不要把對方伺服器爬崩、不碰黑產及黃賭毒就不會違法,技術無罪,有罪的是人,切記不要觸碰法律的紅線!