好多網站對於爬蟲中沒有進行瀏覽器偽裝的會進行反爬, 以糗事百科網站為例 下麵提供了三種方法添加headers,使爬蟲能夠偽裝成瀏覽器訪問。 備註: 方法二和方法三中省略了 方法一:通過opener添加header 方法二:通過opener批量添加header 方法三:通過Request添加heade ...
好多網站對於爬蟲中沒有進行瀏覽器偽裝的會進行反爬,
以糗事百科網站為例
下麵提供了三種方法添加headers,使爬蟲能夠偽裝成瀏覽器訪問。
備註:
方法二和方法三中省略了
import urllib.request
url = 'http://www.qiushibaike.com/'
方法一:通過opener添加header
1 # 方法一:通過opener添加headers 2 import urllib.request 3 url = 'http://www.qiushibaike.com/' 4 5 # 頭文件格式header=('User-Agent',具體用戶代理值) 元組形式,元組內包含(key,value) 6 headers=('User-Agent','Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.22 Safari/537.36 SE 2.X MetaSr 1.0') 7 # 創建opener對象 8 opener = urllib.request.build_opener() 9 opener.addheaders = [headers] 10 # (1)直接使用opener進行爬蟲 11 data = opener.open(url).read() 12 # print(data) 13 print(len(data)) 14 # (2)將opener安裝為全局,全局生效後,再使用urlopen 15 urllib.request.install_opener(opener) 16 data = urllib.request.urlopen(url).read() 17 print(len(data))
方法二:通過opener批量添加header
1 # 方法二:批量添加headers 有時候只添加user-agent這一個header不行,需要多添加幾個header 2 headers={"User-Agent":"Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.22 Safari/537.36 SE 2.X MetaSr 1.0","Content-Type":"application/javascript", 3 } 4 #創建opener對象 5 opener = urllib.request.build_opener() 6 opener.addheaders = headers.items() #header.items() 字典(Dictionary).items() 函數以列表返回可遍歷的(鍵, 值) 元組數組。正好符合addheaders屬性要求的值的類型。[(key1,value1),(key2,value2),(key3,value3)] 7 # (1)直接使用opener進行爬蟲 8 data = opener.open(url).read() 9 # print(data) 10 print(len(data)) 11 # (2)將opener安裝為全局,全局生效後,再使用urlopen 12 urllib.request.install_opener(opener) 13 data = urllib.request.urlopen(url).read() 14 print(len(data))
方法三:通過Request添加header
1 # 方法三:通過Request添加headers 2 req = urllib.request.Request(url) 3 req.add_header('User-Agent', 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/38.0.2125.122 Safari/537.36 SE 2.X MetaSr 1.0') 4 req_data = urllib.request.urlopen(req).read() 5 print(len(req_data))