我們在爬取網站的時候,都會遵守 robots 協議,在爬取數據的過程中,儘量不對伺服器造成壓力。但並不是所有人都這樣,網路上仍然會有大量的惡意爬蟲。對於網路維護者來說,爬蟲的肆意橫行不僅給伺服器造成極大的壓力,還意味著自己的網站資料泄露,甚至是自己刻意隱藏在網站的隱私的內容也會泄露,這也就是反爬蟲技 ...
我們在爬取網站的時候,都會遵守 robots 協議,在爬取數據的過程中,儘量不對伺服器造成壓力。但並不是所有人都這樣,網路上仍然會有大量的惡意爬蟲。對於網路維護者來說,爬蟲的肆意橫行不僅給伺服器造成極大的壓力,還意味著自己的網站資料泄露,甚至是自己刻意隱藏在網站的隱私的內容也會泄露,這也就是反爬蟲技術存在的意義。
開始
先從最基本的requests開始。requests是一常用的http請求庫,它使用python語言編寫,可以方便地發送http請求,以及方便地處理響應結果。這是一段抓取敢闖網內容的代碼。
import requests
from lxml import etree
url = 'https://www.darecy.com/'
data = requests.get(url).text
s=etree.HTML(data)
film=s.xpath('//*[@id="content"]/h1/span[1]/text()')
print(film)
這就是最簡單的完整的爬蟲操作,通過代碼發送網路請求,然後解析返回內容,分析頁面元素,得到自己需要的東西。
這樣的爬蟲防起來也很容易。使用抓包工具看一下剛纔發送的請求,再對比一下瀏覽器發送的正常請求。可以看到,兩者的請求頭差別非常大,尤其requests請求頭中的user-agent,赫然寫著python-requests。這就等於是告訴服務端,這條請求不是真人發的。服務端只需要對請求頭進行一下判斷,就可以防禦這一種的爬蟲。
當然requests也不是這麼沒用的,它也支持偽造請求頭。以user-agent為例,對剛纔的代碼進行修改,就可以很容易地在請求頭中加入你想要加的欄位,偽裝成真實的請求,干擾服務端的判斷。
import requests
from lxml import etree
user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'
headers = { 'User-Agent' : user_agent }
url = 'https://www.darecy.com/'
data = requests.get(url,headers=headers).text
s=etree.HTML(data)
film=s.xpath('//*[@id="content"]/h1/span[1]/text()')
print(film)
提高
現階段,就網路請求的內容上來說,爬蟲腳本已經和真人一樣了,那麼伺服器就要從別的角度來進行防禦。
有兩個思路,第一個,分析爬蟲腳本的行為模式來進行識別和防禦。
爬蟲腳本通常會很頻繁的進行網路請求,針對這種行為模式,服務端就可以對訪問的 IP 進行統計,如果單個 IP 短時間內訪問超過設定的閾值,就給予封鎖。這確實可以防禦一批爬蟲,但是也容易誤傷正常用戶,並且爬蟲腳本也可以繞過去。
這時候的爬蟲腳本要做的就是ip代理,每隔幾次請求就切換一下ip,防止請求次數超過服務端設的閾值。設置代理的代碼也非常簡單。
import requests
proxies = {
"http" : "http://108.108.108.108:8899" # 代理ip
}
user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'
headers = { 'User-Agent' : user_agent }
url = 'https://www.darecy.com/'
res = requests.get(url = http_url, headers = headers, proxies = proxies)
第二個思路,通過做一些只有真人能做的操作來識別爬蟲腳本。最典型的就是以12306為代表的驗證碼操作。
增加驗證碼是一個既古老又相當有效果的方法,能夠讓很多爬蟲望風而逃。當然這也不是萬無一失的。經過多年的發展,用電腦視覺進行一些圖像識別已經不是什麼新鮮事,訓練神經網路的門檻也越來越低,並且有許多開源的電腦視覺庫可以免費使用。
再專業一點的話,還可以加上一些圖像預處理的操作,比如降噪和二值化,提高驗證碼的識別準確率。當然要是驗證碼原本的干擾線, 噪點都比較多,甚至還出現了人類肉眼都難以辨別的驗證碼,電腦識別的準確度也會相應下降一些。但這種方法對於真實的人類用戶來說實在是太不友好了,屬於是殺敵一千自損八百的做法。
進階
驗證碼的方法雖然防爬效果好,開發人員在優化驗證操作的方面也下了很多工夫。如今,很多的人機驗證操作已經不再需要輸入驗證碼,有些只要一下點擊就可以完成,有些甚至不需要任何操作,在用戶不知道的情況下就能完成驗證。這裡其實包含了不同的隱形驗證方法。
有些則更加高級一些,通過檢測出用戶的瀏覽習慣,比如用戶常用 IP 或者滑鼠移動情況等,然後自行判斷人機操作。這樣就用一次點擊取代了繁瑣的驗證碼,而且實際效果還更好。