Scrapy安裝和簡單使用

来源:https://www.cnblogs.com/jiyu-hlzy/archive/2019/11/09/11828192.html
-Advertisement-
Play Games

模塊安裝 Windows 安裝scrapy 需要安裝依賴環境twisted,twisted又需要安裝C++的依賴環境 pip install scrapy 時 如果出現twisted錯誤 在https://www.lfd.uci.edu/~gohlke/pythonlibs/ 下載對應的Twiste ...


模塊安裝

Windows

安裝scrapy 需要安裝依賴環境twisted,twisted又需要安裝C++的依賴環境

pip install scrapy  時 如果出現twisted錯誤

在https://www.lfd.uci.edu/~gohlke/pythonlibs/ 下載對應的Twisted的版本文件(cp36代表python3.6版本)

再cmd進入到Twisted所在的目錄  執行pip install 加Twisted文件名

最後執行pip install scrapy

 

 

Ubuntu安裝註意事項

不要使用 python-scrapyUbuntu提供的軟體包,它們通常太舊而且速度慢,無法趕上最新的Scrapy

要在Ubuntu(或基於Ubuntu)系統上安裝scrapy,您需要安裝這些依賴項

sudo apt-get install python-dev python-pip libxml2-dev libxslt1-dev zlib1g-dev libffi-dev libssl-dev

如果你想在python3上安裝scrapy,你還需要Python3的開發頭文件

sudo apt-get install python3-dev

在virtualenv中,你可以使用pip安裝Scrapy:pip install scrapy

 

 

 

簡單使用

新建項目

scrapy startproject project_name

 

 

編寫爬蟲

第一種方式:創建單個文件

創建一個類,它必須繼承scrapy.Spider類,需要定義三個屬性

name: spider的名字,必須且唯一

start_urls: 初始的url列表

parse(self, response) 方法:每個初始url完成之後被調用

這個parse函數要完成兩個功能

1、解析響應,封裝成item對象並返回這個對象

2、提取新的需要下載的url,創建新的request,並返回它

單個文件的運行命令 scrapy runspider demo.py

 

第二種方式:通過命令創建

scrapy genspider 爬蟲名 功能變數名稱

 

 

運行爬蟲

scrapy list 查看可以運行的爬蟲文件

scrapy crawl 爬蟲名(name屬性的值)

 

 

追蹤鏈接

創建一個類變數page_num用來記錄當前爬取到的頁碼,在parse函數中提取信息,然後通過爬蟲對象給變數page__num自加1,構造下一頁的url,然後創建scrapy.Request對象並返回

如果response中提取不到信息,我們判斷已經到了最後一頁,parse函數直接return結束

 

定義item管道

parse函數在解析出我們需要的信息之後,可以將這些信息打包成一個字典對象或scray.Item對象,然後返回

這個對象會被髮送到item管道,該管道會通過順序執行幾個組件處理它。每個item管道組件是一個實現簡單方法的Python類

它們收到一個item並對其執行操作,同時決定該item是否應該繼續通過管道或者被丟棄並且不再處理

 

item管道的典型用途:

清理HTML數據  

驗證已刪除的數據(檢查項目是否包含某些欄位)  

檢查重覆項(並刪除它們)  

將已爬取的item進行數據持久化

 

 

編寫管道類

#在爬蟲啟動時執行               def open_ spider(self, spider)

#在爬蟲關閉時,執行              def close_ spider(self, spider)

#對傳遞過來的item處理並return處理完的item  def process_ item(self, item, spider)

要激活這個管道組件,必須將其添加到ITEM_PIPELINES設置中,在settings文件中設置

在此設置中為類分配的整數值決定了它們運行的順序:按照從較低值到較高值的順序進行

 

 

定義item

Scrapy提供了Item類

編輯項目目錄下的items.py文件

在爬蟲中導入我們定義的Item類,實例化後用它進行數據結構化

 

 

 

運行流程

數據流

 首先從爬蟲獲取初始的請求

將請求放入調度模塊,然後獲取下一個需要爬取的請求

調度模塊返回下一個需要爬取的請求給引擎

引擎將請求發送給下載器,依次穿過所有的下載中間件

一旦頁面下載完成,下載器會返回一個響應包含了頁面數據,然後再依次穿過所有的下載中間件

引擎從下載器接收到響應,然後發送給爬蟲進行解析,依次穿過所有的爬蟲中間件

爬蟲處理接收到的響應,然後解析出item和生成新的請求,併發送給引擎

引擎將已經處理好的item發送給管道組件,將生成好的新的請求發送給調度模塊,並請求下一個請求

該過程重覆,直到調度程式不再有請求為止

 

 

組件

spiders 爬蟲程式     處理response 提取需要的數據 或其他要抓取的請求

engine 引擎       引擎負責控制系統所有組件之間的數據流,併在發生某些操作時觸發事件

scheduler調度器     接收request請求 排隊加入隊列

download下載器     負責引擎發送過來的request請求 進行下載

item pipelines 管道    負責spider返回的數據 進行存儲

 

 

中間件

下載中間件

下載中間件是位於引擎和下載器之間的特定的鉤子,它們處理從引擎傳遞到下載器的請求,以及下載器傳遞到引擎的響應

使用Downloader中間件執行以下操作

在請求發送到下載程式之前處理請求(即在scrapy將請求發送到網站之前)

在響應發送給爬蟲之前

直接發送新的請求,而不是將收到的響應傳遞給蜘蛛

將響應傳遞給爬行器而不獲取web頁面

默默的放棄一些請求

 

 

爬蟲中間件

爬蟲中間件是位於引擎和爬蟲之間的特定的鉤子,能夠處理傳入的響應和傳遞出去的item和請求

使用爬蟲中間件執行以下操作

處理爬蟲回調之後的 請求或item

處理start_requests

處理爬蟲異常

根據響應內容調用errback而不是回調請求

 

 

事件驅動的網路

scrapy是用Twisted編寫的,Twisted是一個流行的事件驅動的Python網路框架。它使用非阻塞(也稱為非同步)代碼實現併發

 

 

 


您的分享是我們最大的動力!

-Advertisement-
Play Games
更多相關文章
  • 手寫SpringMVC框架 細嗅薔薇 心有猛虎 背景:Spring 想必大家都聽說過,可能現在更多流行的是Spring Boot 和Spring Cloud 框架;但是SpringMVC 作為一款實現了MVC 設計模式的web (表現層) 層框架,其高開發效率和高性能也是現在很多公司仍在採用的框架; ...
  • 概述 今天給大家分享,在 API 端使用 Gin 框架時,項目的目錄。目錄 ├─ Project Name │ ├─ config //配置文件 │ ├── ... │ ├─ controller //控制器層 │ ├── ... │ ├─ service //業務層 │ ├── ... │ ├─ ...
  • 一、re舉例 import re #查找數字 p = re.compile(r"\d+") #在字元串“ongahjeuf125”中及逆行查找,按照規則p指定的正則進行查找 m = p.match("ong125fdsgdsf48515",3,20)#後面的參數序號3到6的搜索範圍 print(m) ...
  • 1. 引入工程依賴包 2. 編寫DAO介面 3. 編寫SQL配置文件(本人不太習慣註解,習慣將SQL寫在配置文件中) 4. 配置myBatis配置類,也可以放在啟動類上 5. 配置application.yml文件 6. 編寫controller,調用MyBatis 源代碼: "https://gi ...
  • 概述首先同步下項目概況:上篇文章分享了,使用 go modules 初始化項目,這篇文章咱們分享: 規劃目錄結構 模型綁定和驗證 自定義驗證器 制定 API 返回結構廢話不多說,咱們開始吧。規劃目錄結構 ├─ go-gin-api │ ├─ app │ ├─ config //配置文件 │ ├─ c ...
  • 一、關於Quartz Quartz是OpenSymphony開源組織在Job scheduling領域又一個開源項目,它可以與J2EE與J2SE應用程式相結合也可以單獨使用。在java企業級應用中,Quartz是使用最廣泛的定時調度框架。 在Quartz中的主要概念: Scheduler:調度任務的 ...
  • 概述首先同步下項目概況:上篇文章分享了,規劃項目目錄和參數驗證,其中參數驗證使用的是 validator.v8 版本,現已更新到 validator.v9 版本,最新代碼查看 github 即可。這篇文章咱們分享:路由中間件 - 日誌記錄。日誌是特別重要的一個東西,方便我們對問題進行排查,這篇文章我 ...
  • 本文主要學習了在Java1.8中新增的Collector介面和Collectors工具類,以及使用它們在處理集合時的改進和優化。 ...
一周排行
    -Advertisement-
    Play Games
  • Dapr Outbox 是1.12中的功能。 本文只介紹Dapr Outbox 執行流程,Dapr Outbox基本用法請閱讀官方文檔 。本文中appID=order-processor,topic=orders 本文前提知識:熟悉Dapr狀態管理、Dapr發佈訂閱和Outbox 模式。 Outbo ...
  • 引言 在前幾章我們深度講解了單元測試和集成測試的基礎知識,這一章我們來講解一下代碼覆蓋率,代碼覆蓋率是單元測試運行的度量值,覆蓋率通常以百分比表示,用於衡量代碼被測試覆蓋的程度,幫助開發人員評估測試用例的質量和代碼的健壯性。常見的覆蓋率包括語句覆蓋率(Line Coverage)、分支覆蓋率(Bra ...
  • 前言 本文介紹瞭如何使用S7.NET庫實現對西門子PLC DB塊數據的讀寫,記錄了使用電腦模擬,模擬PLC,自至完成測試的詳細流程,並重點介紹了在這個過程中的易錯點,供參考。 用到的軟體: 1.Windows環境下鏈路層網路訪問的行業標準工具(WinPcap_4_1_3.exe)下載鏈接:http ...
  • 從依賴倒置原則(Dependency Inversion Principle, DIP)到控制反轉(Inversion of Control, IoC)再到依賴註入(Dependency Injection, DI)的演進過程,我們可以理解為一種逐步抽象和解耦的設計思想。這種思想在C#等面向對象的編 ...
  • 關於Python中的私有屬性和私有方法 Python對於類的成員沒有嚴格的訪問控制限制,這與其他面相對對象語言有區別。關於私有屬性和私有方法,有如下要點: 1、通常我們約定,兩個下劃線開頭的屬性是私有的(private)。其他為公共的(public); 2、類內部可以訪問私有屬性(方法); 3、類外 ...
  • C++ 訪問說明符 訪問說明符是 C++ 中控制類成員(屬性和方法)可訪問性的關鍵字。它們用於封裝類數據並保護其免受意外修改或濫用。 三種訪問說明符: public:允許從類外部的任何地方訪問成員。 private:僅允許在類內部訪問成員。 protected:允許在類內部及其派生類中訪問成員。 示 ...
  • 寫這個隨筆說一下C++的static_cast和dynamic_cast用在子類與父類的指針轉換時的一些事宜。首先,【static_cast,dynamic_cast】【父類指針,子類指針】,兩兩一組,共有4種組合:用 static_cast 父類轉子類、用 static_cast 子類轉父類、使用 ...
  • /******************************************************************************************************** * * * 設計雙向鏈表的介面 * * * * Copyright (c) 2023-2 ...
  • 相信接觸過spring做開發的小伙伴們一定使用過@ComponentScan註解 @ComponentScan("com.wangm.lifecycle") public class AppConfig { } @ComponentScan指定basePackage,將包下的類按照一定規則註冊成Be ...
  • 操作系統 :CentOS 7.6_x64 opensips版本: 2.4.9 python版本:2.7.5 python作為腳本語言,使用起來很方便,查了下opensips的文檔,支持使用python腳本寫邏輯代碼。今天整理下CentOS7環境下opensips2.4.9的python模塊筆記及使用 ...