做數據分析和任何一門技術一樣,都應該帶著目標去學習,目標就像一座燈塔,指引你前進,很多人學著學著就學放棄了,很大部分原因是沒有明確目標,所以,一定要明確學習目的,在你準備學爬蟲前,先問問自己為什麼要學習爬蟲。有些人是為了一份工作,有些人是為了好玩,也有些人是為了實現某個黑科技功能。不過可以肯定的是,... ...
Python入門教程免費領取 https://www.cnblogs.com/yuxiang1/p/13301047.html 做數據分析和任何一門技術一樣,都應該帶著目標去學習,目標就像一座燈塔,指引你前進,很多人學著學著就學放棄了,很大部分原因是沒有明確目標,所以,一定要明確學習目的,在你準備學爬蟲前,先問問自己為什麼要學習爬蟲。有些人是為了一份工作,有些人是為了好玩,也有些人是為了實現某個黑科技功能。不過可以肯定的是,學會了爬蟲能給你的工作提供很多便利。 小白入門必讀 作為零基礎小白,大體上可分為三個階段去實現。 第一階段是入門,掌握必備基礎知識,比如Python基礎、網路請求的基本原理等; 第二階段是模仿,跟著別人的爬蟲代碼學,弄懂每一行代碼,熟悉主流的爬蟲工具, 第三階段是自己動手,到了這個階段你開始有自己的解題思路了,可以獨立設計爬蟲系統。 爬蟲涉及的技術包括但不限於熟練一門編程語言(這裡以 Python 為例) HTML 知識、HTTP 協議的基本知識、正則表達式、資料庫知識,常用抓包工具的使用、爬蟲框架的使用、涉及到大規模爬蟲,還需要瞭解分散式的概念、消息隊列、常用的數據結構和演算法、緩存,甚至還包括機器學習的應用,大規模的系統背後都是靠很多技術來支撐的。數據分析、挖掘、甚至是機器學習都離不開數據,而數據很多時候需要通過爬蟲來獲取,因此,即使把爬蟲作為一門專業來學也是有很大前途的。 那麼是不是一定要把上面的知識全學完了才可以開始寫爬蟲嗎?當然不是,學習是一輩子的事,只要你會寫 Python 代碼了,就直接上手爬蟲,好比學車,只要能開動了就上路吧,寫代碼可比開車安全多了。 用 Python 寫爬蟲 首先需要會 Python,把基礎語法搞懂,知道怎麼使用函數、類、list、dict 中的常用方法就算基本入門。接著你需要瞭解 HTML,HTML 就是一個文檔樹結構,網上有個 HTML 30分鐘入門教程 https://deerchao.net/tutorials/html/html.htm 夠用了。 關於 HTTP 的知識 爬蟲基本原理就是通過網路請求從遠程伺服器下載數據的過程,而這個網路請求背後的技術就是基於 HTTP 協議。作為入門爬蟲來說,你需要瞭解 HTTP協議的基本原理,雖然 HTTP 規範用一本書都寫不完,但深入的內容可以放以後慢慢去看,理論與實踐相結合。 網路請求框架都是對 HTTP 協議的實現,比如著名的網路請求庫 Requests 就是一個模擬瀏覽器發送 HTTP 請求的網路庫。瞭解 HTTP 協議之後,你就可以專門有針對性的學習和網路相關的模塊了,比如 Python 自帶有 urllib、urllib2(Python3中的urllib),httplib,Cookie等內容,當然你可以直接跳過這些,直接學習 Requests 怎麼用,前提是你熟悉了 HTTP協議的基本內容,數據爬下來,大部分情況是 HTML 文本,也有少數是基於 XML 格式或者 Json 格式的數據,要想正確處理這些數據,你要熟悉每種數據類型的解決方案,比如 JSON 數據可以直接使用 Python自帶的模塊 json,對於 HTML 數據,可以使用 BeautifulSoup、lxml 等庫去處理,對於 xml 數據,除了可以使用 untangle、xmltodict 等第三方庫。此外,在我的公眾號也總結了好幾篇爬蟲入門與實戰的文章 http://t.cn/RQrWESe , 可以當做練手 爬蟲工具 爬蟲工具裡面,學會使用 Chrome 或者 FireFox 瀏覽器去審查元素,跟蹤請求信息等等,現在大部分網站有配有APP和手機瀏覽器訪問的地址,優先使用這些介面,相對更容易。還有 Fiddler 等代理工具的使用。 入門爬蟲,學習正則表達式並不是必須的,你可以在你真正需要的時候再去學,比如你把數據爬取回來後,需要對數據進行清洗,當你發現使用常規的字元串操作方法根本沒法處理時,這時你可以嘗試瞭解一下正則表達式,往往它能起到事半功倍的效果。Python 的 re 模塊可用來處理正則表達式。這裡也推薦一個教程:Python正則表達式指南https://www.cnblogs.com/huxi/archive/2010/07/04/1771073.html
