俗話說“巧婦難為無米之炊”,除了傳統的數據源,如歷史年鑒,實驗數據等,很難有更為簡便快捷的方式獲得數據,在目前互聯網的飛速發展寫,大量的數據可以通過網頁直接采集,“網絡爬蟲”應運而生,本篇將會講解簡單的網絡爬蟲編寫方法。
開發環境
每個人的開發環境各異,下面上是我的開發環境,對于必須的工具,我會加粗。
windows10(操作系統),pycharm(IDE,當然,用eclipse和sublime均可),python(這個必須的額,我下面實現的代碼版本是2.7),BeautifulSoup4、urllib2等。
什么是爬蟲
爬蟲是自動從互聯網上獲取數據的程序。
下面是一張對簡單爬蟲的結構進行描述的圖,其主體是URL管理器,網頁下載器和網頁解析器。爬蟲調度端指的是對爬蟲發布指令的端口,人可以對其進行設置,爬什么內容,怎么爬,需要進行什么其他的操作等,通過爬蟲,就能夠得到所需的有價值的數據。
下面一張時序圖圖簡單講述了爬蟲的運行流程。從上往下看,調度器訪問URL管理器查看其中由于可訪問的待爬取的URL,如果返回是即將1個待爬的URL傳給調取器,調度器讓下載器將URL對應的網頁下載下來,返回給調度器,調度器將下載的網頁發給解析器進行解析,解析之后返回到調度器,此時數據已經初步形成,可以開始進一步的使用。如此循環直到URL管理器為空或者數據量足夠大。
URL管理器
URL管理器:管理待抓取的URL集合和已抓取URL集合。主要實現下面種功能。
添加新URL到待爬集合中。
判斷待添加URL是否在容器中。
獲取待爬取URL。
判斷是否還有待爬取URL。
將待爬取URL移動到已爬取。
實現方式:
內存:python的set集合
關系數據庫,MySQL,urls(url, is_crawled)
緩存數據庫:redis的set集合
網頁下載器
網頁下載器:將互聯網上URL對應網頁下載到本地的工具。
我剛整理了一套2018最新的0基礎入門和進階教程,無私分享,加Python學習q u n?:227-435-450即可獲取,內附:開發工具和安裝包,以及系統學習路線圖python的
網頁下載器
urllib2-python-官方基礎模塊
requests-第三方更強大
urllab2下載器使用方法:
最簡捷方法:直接寫出鏈接并且請求。
添加data、http helper,data和httphelper能分別為下載提供更加精確的目標,同時可以模仿瀏覽器對網頁進行訪問,能攻破一些反爬蟲策略。
添加特殊情景處理器,例如賬號密碼輸入等,有些網站只有在用戶登錄時才能瀏覽,而情景處理器就能模擬這形式。
運行實例:
網頁解析器
網頁解析器:從網頁中提取有價值數據的工具,側面而言,也能看做是整合數據的一個步驟,但是由于爬取數據復雜度較高,所以不會將太多的數據整合、集成、清洗任務放在這里,只是進行簡單的整合,成為數組或者矩陣等而已。
Beautiful Soup
python第三方庫,用于從HTML或者XML中提取數據,有自己的官網,同時還有API文檔。
其下載方式可在API文檔中找到。
用法介紹如下圖所示。BeautifulSoup對象創建之后能夠去搜索節點,根據節點名、屬性值或者是節點文字等信息進行查詢,能夠達到精確搜索的目的,減少垃圾數據獲取。
舉一個例子,對一個標簽:
能有三種方式搜索
節點名稱:a
節點屬性:"href='123.html',和class=article_link"
節點內容:python
語法使用如下:
下面是具體的案例: