【0基礎學爬蟲】爬蟲基礎之爬蟲的基本介紹

来源:https://www.cnblogs.com/ikdl/archive/2023/02/10/17109473.html
-Advertisement-
Play Games

大數據時代,各行各業對數據採集的需求日益增多,網路爬蟲的運用也更為廣泛,越來越多的人開始學習網路爬蟲這項技術,K哥爬蟲此前已經推出不少爬蟲進階、逆向相關文章,為實現從易到難全方位覆蓋,特設【0基礎學爬蟲】專欄,幫助小白快速入門爬蟲,本期為爬蟲的基本介紹。 一、爬蟲概述 爬蟲又稱網路蜘蛛、網路機器人, ...


00

大數據時代,各行各業對數據採集的需求日益增多,網路爬蟲的運用也更為廣泛,越來越多的人開始學習網路爬蟲這項技術,K哥爬蟲此前已經推出不少爬蟲進階、逆向相關文章,為實現從易到難全方位覆蓋,特設【0基礎學爬蟲】專欄,幫助小白快速入門爬蟲,本期為爬蟲的基本介紹。

一、爬蟲概述

爬蟲又稱網路蜘蛛、網路機器人,網路爬蟲按照系統結構和實現技術,大致可以分為以下幾種類型:

  • 通用網路爬蟲(Scalable Web Crawler):抓取互聯網上所有數據,爬取對象從一些種子 URL 擴充到整個 Web,主要為門戶站點搜索引擎和大型 Web 服務提供商採集數據,是捜索引擎抓取系統(Baidu、Google、Yahoo 等)的重要組成部分。
  • 聚焦網路爬蟲(Focused Crawler):抓取互聯網上特定數據,按照預先定義好的主題有選擇地進行網頁爬取的一種爬蟲,將爬取的目標網頁定位在與主題相關的頁面中,選擇性地爬取特定領域信息。
  • 增量式網路爬蟲(Incremental Web Crawler):抓取互聯網上剛更新的數據,採取增量式更新和只爬取新產生的或者已經發生變化網頁,它能夠在一定程度上保證所爬取的頁面是儘可能新的頁面,減少時間和空間上的耗費。
  • 深層網路爬蟲(Deep Web Crawler):表層網頁(Surface Web)是指傳統搜索引擎可以索引的頁面,以超鏈接可以到達的靜態網頁為主構成的 Web 頁面;深層網頁(Deep Web)是指不能通過靜態鏈接獲取的、隱藏在搜索表單後的,只有用戶提交一些關鍵詞才能獲得的 Web 頁面。在互聯網中,深層頁面的數量往往比表層頁面的數量要多很多。

爬蟲程式能模擬瀏覽器請求站點的行為,把站點返回的HTML代碼/JSON數據/二進位數據(圖片、視頻、音頻) 等爬取到本地,進而提取自己需要的數據,並存放起來使用,每一個程式都有自己的規則,網路爬蟲也不例外,它會根據人們施加的規則去採集信息,這些規則為網路爬蟲演算法,根據使用者的目的,爬蟲可以實現不同的功能,但所有爬蟲的本質,都是方便人們在海量的互聯網信息中找到並下載到自己要的那一類,提升信息獲取效率。

爬蟲採集的都是正常用戶能瀏覽到的內容,而非所謂的 ”入侵伺服器“,常說高水準者可 ”所見即所得“,意為只要是能看的內容就能爬取到,希望各位都能達到這個程度~

二、爬蟲的用途

現如今大數據時代已經到來,網路爬蟲技術成為這個時代不可或缺的一部分,企業需要數據來分析用戶行為、自己產品的不足之處以及競爭對手的信息等,而這一切的首要條件就是數據的採集。網路爬蟲的價值其實就是數據的價值,在互聯網社會中,數據是無價之寶,一切皆為數據,誰擁有了大量有用的數據,誰就擁有了決策的主動權。

網路爬蟲目前主要的應用領域如:搜索引擎、數據採集、數據分析、信息聚合、競品監控、認知智能、輿情分析等等,爬蟲業務相關的公司數不勝數,如百度、谷歌、天眼查、企查查、新榜、飛瓜等等,在大數據時代,爬蟲的應用範圍廣、需求大,簡單舉幾個貼近生活的例子:

  • 求職需求:獲取各個城市的招聘信息及薪資標準,方便篩選出適合自己的;

  • 租房需求:獲取各個城市的租房信息,以便挑選出心儀的房源;

  • 美食需求:獲取各個地方的好評美食,讓吃貨不迷路;

  • 購物需求:獲取各個商家同一個商品的價格及折扣信息,讓購物更實惠;

  • 購車需求:獲取心儀車輛近年的價格波動,以及不同渠道各車型的價格,助力挑選愛車。

三、URI 及 URL 的含義

URI(Uniform Resource Identifier),即統一資源標誌符,URI(Uniform Resource Location),即統一資源定位符,例如 https://www.kuaidaili.com/ ,既是一個 URI,也是一個 URL,URL 是 URI 的子集,對於一般的網頁鏈接,習慣稱為 URL,一個 URL 的基本組成格式如下:

scheme://[username:password@]host[:port][/path][;parameters][?query][#fragment]

各部分含義如下:

  1. scheme:獲取資源使用的協議,例如 http、https、ftp 等,沒有預設值,scheme 也被稱為 protocol;

  2. username:password:用戶名與密碼,某些情況下 URL 需要提供用戶名和密碼才能訪問,這是個特殊的存在,一般訪問 ftp 時會用到,顯式的表明瞭訪問資源的用戶名與密碼,但是可以不寫,不寫的話可能會讓輸入用戶名密碼;

  3. host:主機地址,可以是功能變數名稱或 IP 地址,例如 www.kuaidaili.com、112.66.251.209;

  4. port:埠,伺服器設定的服務埠,http 協議的預設埠為 80,https 協議的預設埠為 443,例如 https://www.kuaidaili.com/ 相當於 https://www.kuaidaili.com:443

  5. path:路徑,指的是網路資源在伺服器中的指定地址,通過 host:port 我們能找到主機,但是主機上文件很多,通過 path 則可以定位具體文件。例如 https://www.baidu.com/file/index.html,path 為 /file/index.html,表示我們訪問 /file/index.html 這個文件;

  6. parameters:參數,用來指定訪問某個資源時的附加信息,主要作用就是像伺服器提供額外的參數,用來表示本次請求的一些特性,例如 https://www.kuaidaili.com/dps;kspider,kspider 即參數,現在用的很少,大多數將 query 部分作為參數;

  7. query:查詢,由於查詢某類資源,若多個查詢,則用 & 隔開,通過 GET 方式請求的參數,例如:https://www.kuaidaili.com/dps/?username=kspider&type=spider,query 部分為 username=kspider&type=spider,指定了 username 為 kspider,type 為 spider;

  8. fragment:片段,對資源描述的部分補充,用來標識次級資源,例如 https://www.kuaidaili.com/dps#kspider,kspider 即為 fragment 的值:

    • 應用:單頁面路由、HTML 錨點;

    • # 有別於 ?? 後面的查詢字元串會被網路請求帶上伺服器,而 fragment 不會被髮送的伺服器;

    • fragment 的改變不會觸發瀏覽器刷新頁面,但是會生成瀏覽歷史;

    • fragment 會被瀏覽器根據文件媒體類型(MIME type)進行對應的處理;

    • 預設情況下 Google 的搜索引擎會忽略 # 及其後面的字元串,如果想被瀏覽引擎讀取,需要在 # 後緊跟一個 ! ,Google 會自動將其後面的內容轉成查詢字元串 _escaped_fragment_ 的值,如 https://www.kuaidaili.com/dps#!kspider,轉換後為 https://www.kuaidaili.com/dps?escaped_fragment=kspider。

由於爬蟲的目標是獲取資源,而資源都存儲在某個主機上,所以爬蟲爬取數據時必須要有一個目標的 URL 才可以獲取數據,因此,URL 是爬蟲獲取數據的基本依據,準確理解 URL 的含義對爬蟲學習有很大幫助。

四、爬蟲的基本流程

  1. 發起請求:通過 URL 向伺服器發起 Request 請求(同打開瀏覽器,輸入網址瀏覽網頁),請求可以包含額外的 headers、cookies、proxies、data 等信息,Python 提供了許多庫,幫助我們實現這個流程,完成 HTTP 請求操作,如 urllib、requests 等;
  2. 獲取響應內容:如果伺服器正常響應,會接收到 Response,Response 即為我們所請求的網頁內容,包含 HTML(網頁源代碼),JSON 數據或者二進位的數據(視頻、音頻、圖片)等;
  3. 解析內容:接收到響應內容後,需要對其進行解析,提取數據內容,如果是 HTML(網頁源代碼),則可以使用網頁解析器進行解析,如正則表達式(re)、Beautiful Soup、pyquery、lxml 等;如果是 JSON 數據,則可以轉換成 JSON 對象進行解析;如果是二進位的數據,則可以保存到文件進行進一步處理;
  4. 保存數據:可以保存到本地文件(txt、json、csv 等),或者保存到資料庫(MySQL,Redis,MongoDB 等),也可以保存至遠程伺服器,如藉助 SFTP 進行操作等。

五、爬蟲的基本架構

爬蟲的基本架構主要由五個部分組成,分別是爬蟲調度器、URL 管理器、網頁下載器、網頁解析器、信息採集器:

  1. 爬蟲調度器:相當於一臺電腦的 CPU,主要負責調度 URL 管理器、下載器、解析器之間的協調工作,用於各個模塊之間的通信,可以理解為爬蟲的入口與核心,爬蟲的執行策略在此模塊進行定義;
  2. URL 管理器:包括待爬取的 URL 地址和已爬取的 URL 地址,防止重覆抓取 URL 和迴圈抓取 URL,實現 URL 管理器主要用三種方式,通過記憶體、資料庫、緩存資料庫來實現;
  3. 網頁下載器:負責通過 URL 將網頁進行下載,主要是進行相應的偽裝處理模擬瀏覽器訪問、下載網頁,常用庫為 urllib、requests 等;
  4. 網頁解析器:負責對網頁信息進行解析,可以按照要求提取出有用的信息,也可以根據 DOM 樹的解析方式來解析。如正則表達式(re)、Beautiful Soup、pyquery、lxml 等,根據實際情況靈活使用;
  5. 數據存儲器:負責將解析後的信息進行存儲、顯示等數據處理。

01

六、robots 協議

robots 協議也稱爬蟲協議、爬蟲規則等,是指網站可建立一個 robots.txt 文件來告訴搜索引擎哪些頁面可以抓取,哪些頁面不能抓取,而搜索引擎則通過讀取 robots.txt 文件來識別這個頁面是否允許被抓取。但是,這個robots協議不是防火牆,也沒有強制執行力,搜索引擎完全可以忽視 robots.txt 文件去抓取網頁的快照 如果想單獨定義搜索引擎的漫游器訪問子目錄時的行為,那麼可以將自定的設置合併到根目錄下的 robots.txt,或者使用 robots 元數據(Metadata,又稱元數據)。

robots 協議並不是一個規範,而只是約定俗成的,所以並不能保證網站的隱私,俗稱 “君子協議”。

robots.txt 文件內容含義:

  • User-agent:, 這裡的 * 代表的所有的搜索引擎種類, 是一個通配符
  • Disallow: /admin/, 這裡定義是禁止爬取 admin 目錄下麵的目錄
  • Disallow: /require/, 這裡定義是禁止爬取 require 目錄下麵的目錄
  • Disallow:/ABC/, 這裡定義是禁止爬取 ABC 目錄下麵的目錄
  • Disallow:/cgi-bin/*.htm, 禁止訪問 /cgi-bin/ 目錄下的所有以 ".htm" 為尾碼的 URL(包含子目錄)
  • Disallow:/*?*, 禁止訪問網站中所有包含問號 (?) 的網址
  • Disallow:/.jpg$, 禁止抓取網頁所有的 .jpg 格式的圖片
  • Disallow:/ab/adc.html, 禁止爬取 ab 文件夾下麵的 adc.html 文件
  • Allow:/cgi-bin/, 這裡定義是允許爬取 cgi-bin 目錄下麵的目錄
  • Allow:/tmp, 這裡定義是允許爬取 tmp 的整個目錄
  • Allow: .htm$, 僅允許訪問以 ".htm" 為尾碼的 URL
  • Allow: .gif$, 允許抓取網頁和 gif 格式圖片
  • Sitemap:網站地圖, 告訴爬蟲這個頁面是網站地圖

查看網站 robots 協議,網站 url 加上尾碼 robotst.txt 即可,以快代理為例:

https://www.kuaidaili.com/

02

  • 禁止所有搜索引擎訪問網站的任何部分
  • 禁止爬取 /doc/using/ 目錄下麵的目錄
  • 禁止爬取 /doc/dev 目錄下麵所有以 sdk 開頭的目錄及文件

七、爬蟲與法律

近年來,與網路爬蟲相關的法律案件和新聞報道層出不窮,推薦觀看:K哥爬蟲普法專欄,不論是不是爬蟲行業的可能都聽說過一句 “爬蟲學的好,牢飯吃到飽”,甚至不少人覺得爬蟲本身就是有問題的,處於灰色地帶,抗拒以致不敢學爬蟲,但實際並不是這樣,爬蟲作為一種電腦技術,其技術本身是具有中立性的,法律也並沒禁止爬蟲技術,當今互聯網很多技術是依賴於爬蟲技術而發展的,公開數據、不做商業目的、不涉及個人隱私、不要把對方伺服器爬崩、不碰黑產及黃賭毒就不會違法,技術無罪,有罪的是人,切記不要觸碰法律的紅線!


您的分享是我們最大的動力!

-Advertisement-
Play Games
更多相關文章
  • 《Terraform 101 從入門到實踐》這本小冊在南瓜慢說官方網站和GitHub兩個地方同步更新,書中的示例代碼也是放在GitHub上,方便大家參考查看。 軍書十二捲,捲捲有爺名。 為什麼需要狀態管理 Terraform的主要作用是管理雲平臺上的資源,通過聲明式的HCL配置來映射資源,如果雲平臺 ...
  • 效果圖: // 這裡設置預設初始步驟StepContentFn('.starBox', "已申請:楊博:2020/2/3:已申請審批意見, 已立項:楊博:2020/5/5:已立項審批意見, 實施中:張三:2020/5/9:實施中意見, 等待中:楊博:2020/6/6:等待中審批意見,已完結:楊博:2 ...
  • 一、Typora軟體的下載與使用 (1)、軟體下載 百度網盤windowsx64已破解:https://pan.baidu.com/s/1ksoh9TeprB5LkZ3tKB-AAA?pwd=p6w6 提取碼:p6w6 ios下載地址:https://mac.qdrayst.com/02/Typor ...
  • 1.什麼是函數模版 函數模板,實際上是建立一個通用函數,其函數類型和形參類型不具體制定,用一個虛擬的類型來代表。這個通用函數就成為函數模板 2.怎麼編寫函數模版 //T代表泛型的數據類型,不是只能寫T, template<class T>//讓編譯器看到這句話後面緊跟著的函數里有T不要報錯 void ...
  • 2023-02-10 一、配置SSM環境 1、添加日誌文件 在“shf-parent/web-admin/src/main/resources”下創建“logback.xml” <?xml version="1.0" encoding="UTF-8"?> <configuration debug=" ...
  • 教程簡介 批處理腳本語法 - 從簡單和簡單的步驟學習批處理腳本,從基本到高級概念,包括概述,環境,命令,文件,語法,變數,註釋,字元串,數組,決策,操作符,日期和時間,輸入/輸出,返回代碼,函數,進程,別名,設備,註冊表,網路,列印,調試,日誌記錄。 教程目錄 批處理腳本 - 語法 批處理腳本 - ...
  • 參考:https://blog.csdn.net/weixin_42401159/article/details/112187778 https://cloud.tencent.com/developer/article/1406445 在處理一些自然語言文字的過程中,會遇到一些錶面很奇怪的現象。 ...
  • 一、安裝 kafka是由scala語言寫成的,後面用Java重構了,但是不管怎樣,都要編譯到jvm虛擬機中執行。 centos:yum install java-11-openjdk ubuntu:apt install default-jdk java -version 下載kafka 下載 wg ...
一周排行
    -Advertisement-
    Play Games
  • 移動開發(一):使用.NET MAUI開發第一個安卓APP 對於工作多年的C#程式員來說,近來想嘗試開發一款安卓APP,考慮了很久最終選擇使用.NET MAUI這個微軟官方的框架來嘗試體驗開發安卓APP,畢竟是使用Visual Studio開發工具,使用起來也比較的順手,結合微軟官方的教程進行了安卓 ...
  • 前言 QuestPDF 是一個開源 .NET 庫,用於生成 PDF 文檔。使用了C# Fluent API方式可簡化開發、減少錯誤並提高工作效率。利用它可以輕鬆生成 PDF 報告、發票、導出文件等。 項目介紹 QuestPDF 是一個革命性的開源 .NET 庫,它徹底改變了我們生成 PDF 文檔的方 ...
  • 項目地址 項目後端地址: https://github.com/ZyPLJ/ZYTteeHole 項目前端頁面地址: ZyPLJ/TreeHoleVue (github.com) https://github.com/ZyPLJ/TreeHoleVue 目前項目測試訪問地址: http://tree ...
  • 話不多說,直接開乾 一.下載 1.官方鏈接下載: https://www.microsoft.com/zh-cn/sql-server/sql-server-downloads 2.在下載目錄中找到下麵這個小的安裝包 SQL2022-SSEI-Dev.exe,運行開始下載SQL server; 二. ...
  • 前言 隨著物聯網(IoT)技術的迅猛發展,MQTT(消息隊列遙測傳輸)協議憑藉其輕量級和高效性,已成為眾多物聯網應用的首選通信標準。 MQTTnet 作為一個高性能的 .NET 開源庫,為 .NET 平臺上的 MQTT 客戶端與伺服器開發提供了強大的支持。 本文將全面介紹 MQTTnet 的核心功能 ...
  • Serilog支持多種接收器用於日誌存儲,增強器用於添加屬性,LogContext管理動態屬性,支持多種輸出格式包括純文本、JSON及ExpressionTemplate。還提供了自定義格式化選項,適用於不同需求。 ...
  • 目錄簡介獲取 HTML 文檔解析 HTML 文檔測試參考文章 簡介 動態內容網站使用 JavaScript 腳本動態檢索和渲染數據,爬取信息時需要模擬瀏覽器行為,否則獲取到的源碼基本是空的。 本文使用的爬取步驟如下: 使用 Selenium 獲取渲染後的 HTML 文檔 使用 HtmlAgility ...
  • 1.前言 什麼是熱更新 游戲或者軟體更新時,無需重新下載客戶端進行安裝,而是在應用程式啟動的情況下,在內部進行資源或者代碼更新 Unity目前常用熱更新解決方案 HybridCLR,Xlua,ILRuntime等 Unity目前常用資源管理解決方案 AssetBundles,Addressable, ...
  • 本文章主要是在C# ASP.NET Core Web API框架實現向手機發送驗證碼簡訊功能。這裡我選擇是一個互億無線簡訊驗證碼平臺,其實像阿裡雲,騰訊雲上面也可以。 首先我們先去 互億無線 https://www.ihuyi.com/api/sms.html 去註冊一個賬號 註冊完成賬號後,它會送 ...
  • 通過以下方式可以高效,並保證數據同步的可靠性 1.API設計 使用RESTful設計,確保API端點明確,並使用適當的HTTP方法(如POST用於創建,PUT用於更新)。 設計清晰的請求和響應模型,以確保客戶端能夠理解預期格式。 2.數據驗證 在伺服器端進行嚴格的數據驗證,確保接收到的數據符合預期格 ...