用了一段時間的pyspider,一直沒有研究源碼。這兩天抽空看了看,稍微拿幾個點出來研究一下,如果讀到哪里不對的地方,請及時指出我好糾正,本文我也會在今后實際使用過程中不斷修正。
本文會有錯誤!寫本文的目的是我希望一邊寫文章,一邊看源碼。所以并不是看完源碼之后的總結(jié),請謹慎閱讀。
主要參考文章:
導航欄:
[TOC]
目錄結(jié)構(gòu)
1. database
2. fetcher
3. libs
4. message_queue
5. processor
6. result
7. scheduler
8. webui
結(jié)構(gòu)分析
PySpider主要由scheduler
,fetcher
,processor
三大組件,webui
提供前端頁面,database
和result
提供持久層(數(shù)據(jù)層),lib
常用工具類,message_queue
消息傳遞層。
三大數(shù)據(jù)庫表
projectdb: project項目管理,管理該項目的代碼,狀態(tài),速率,上一次的更新時間等基礎(chǔ)信息。
taskdb: 組件中互相傳遞信息的json,封裝了所有需要傳遞給各個組件進行使用和調(diào)用的數(shù)據(jù),用戶的整個爬蟲都會被翻譯成一系列的task,在組件中進行傳遞,最后獲得結(jié)果。
resultdb: 如果將數(shù)據(jù)存在本地數(shù)據(jù)庫,則一般以resultdb存儲
總體結(jié)構(gòu)

- 各個組件間使用消息隊列連接,除了scheduler是單點組件,fetcher和processor都可以是多實例分布式部署的。scheduler負責整體的調(diào)度控制
- 任務(wù)由scheduler發(fā)起調(diào)度,fetcher抓取網(wǎng)頁內(nèi)容,processor執(zhí)行預先編寫(webui端)的python腳本,輸出結(jié)果或產(chǎn)生新的提煉任務(wù)(發(fā)往scheduler),行程閉環(huán)
- 每個腳本可以靈活使用各種python庫對頁面進行解析,使用框架API控制下一步抓取動作,通過設(shè)置回調(diào)控制解析動作
三大組件介紹
scheduler
按照binux的介紹該組件有以下特點:
- 任務(wù)優(yōu)先級
- 周期定時任務(wù)
- 流量控制
- 基于時間周期或前鏈標簽(如更新時間)的重抓取調(diào)度
那么從源碼的角度來看可以歸為下面7個方法,由scheduler.py中的Scheduler類的run()方法進入run_once(),可看到下面7個方法:
def run_once(self):
'''comsume queues and feed tasks to fetcher, once'''
self._update_projects()
self._check_task_done()
self._check_request()
while self._check_cronjob():
pass
self._check_select()
self._check_delete()
self._try_dump_cnt()
這7個方法我還沒完全過掉,先說我覺得正確的幾個,希望之后您也可以幫我補充一下:
- [x] _update_projects() : 從projectdb中檢查project,是否有過期,需不需要重爬
- [x] _check_task_done() : 從消息隊列中取出消息(task)
- [ ] _check_request() :
- [ ] _check_cronjob() :
- [ ] _check_select() :
- [x] _check_delete() : 檢查是否有需要刪除的project,pyspider默認Status為STOP,且24小時之后自行刪除
- [ ] _try_dump_cnt() :
fetcher
按照binux的介紹該組件有以下特點:
- dataurl支持,用于假抓取模擬傳遞
- method, header, cookies, proxy, etag, last_modified, timeout等等抓取調(diào)度控制
- 可以通過適配
類似phantomjs的webkit引擎支持渲染
fetcher中主要看 tornado_fetcher.py 和 phantomjs_fetcher.js 兩個文件。
tornado_fetcher.py
-
HTTP
請求
看名字就知道該.py文件和tornado有所關(guān)系,點開可以看到tornado_fetcher.py繼承了tornado的兩個類:
class MyCurlAsyncHTTPClient(CurlAsyncHTTPClient):
def free_size(self):
return len(self._free_list)
def size(self):
return len(self._curls) - self.free_size()
class MySimpleAsyncHTTPClient(SimpleAsyncHTTPClient):
def free_size(self):
return self.max_clients - self.size()
def size(self):
return len(self.active)
查看 tornado.httpclient - 異步HTTP客戶端 文檔后,很清楚的看到pyspider異步特性就是借助了tornado里的httpclient客戶端。
class Fetcher(object):
還從以Fetcher類中的run方法為入口看,發(fā)現(xiàn)會不斷從inqueue
隊列中取task,進行fetch;
fetch默認為異步,那么抓取的核心方法就是async_fetch(self, task, callback=None)
;
fetch
幾點步驟和內(nèi)容,還沒弄懂的內(nèi)容我沒打勾:
- [x] 從task中獲得url
- [x] callback默認為None
- [x] fetch判斷是否使用異步(默認全部使用)
- [x] 判斷url類型,其實就是判斷是否使用phantomjs(ps:這邊的startwith=data沒懂)判斷是否是js, splash。若都不是,則為普通的HTTP請求
- [x] http_fetch可以看到就是處理cookie,重定向,robots.txt等一系列的方法
- [ ] 獲得result結(jié)果后,最后寫了一句raise gen.Return(result) 引發(fā)的異常退出(這塊沒懂),只看到tornado.gen模塊是一個基于python generator實現(xiàn)的異步編程接口
phantomjs_fetcher.js
先附上phantomjs WebServer部分的官方文檔
- [x] 使用WebServer方式,監(jiān)聽端口(默認為127.0.0.1:9999)
- [x] 使用POST方式(拒絕GET)提交給Phantomjs監(jiān)聽的端口
webPage是PhantomJS的核心模塊,可以通過下面方式獲得一個webPage模塊的實例:
var webPage = require('webpage')
var page = webPage.create()
再介紹phantomjs_fetcher.js中幾個核心的方法:
- [x] onLoadFinished : 監(jiān)聽頁面是否加載完成
- [x] onResourceRequested : 當頁面去請求一個資源時,會觸發(fā)onResourceRequested()方法的回調(diào)函數(shù)。回調(diào)函數(shù)接受兩個參數(shù),第一個參數(shù)requestData是這個HTTP請求的元數(shù)據(jù)對象,包括以下屬性:
* id: 所請求資源的id號,這個應該是phantomjs給標識的
* method: 所使用的HTTP方法(GET/POST/PUT/DELETE等)
* url: 所請求資源的URL
* time: 包含請求該資源時間的一個Date對象。
* headers: 該請求的http請求頭中的信息數(shù)組。
- [x] onResourceReceived : onResourceReceived屬性用于指定一個回調(diào)函數(shù),當網(wǎng)頁收到所請求的資源時,就會執(zhí)行該回調(diào)函數(shù)。回調(diào)函數(shù)只有一個參數(shù),就是所請求資源的服務(wù)器發(fā)來的HTTP response的元數(shù)據(jù)對象,包括以下字段:
* id: 所請求的資源編號,此編號phantomjs標識。
* url: 所請求的資源的URL
* time: 包含HTTP回應時間的Date對象
* headers: 響應的HTTP頭信息數(shù)組
* bodySize: 解壓縮后的收到的內(nèi)容大小
* contentType: 接到的內(nèi)容種類
* redirectURL: 重定向URL(如果有的話)
* stage: 對于多數(shù)據(jù)塊的HTTP回應,頭一個數(shù)據(jù)塊為start,最后一個數(shù)據(jù)塊為end
* status: HTTP狀態(tài)碼,成功時為200
* statusText: HTTP狀態(tài)信息,比如OK
最后通過調(diào)用page.open發(fā)送請求給Phantomjs
通過make_result方法返回response
processor
按照binux的介紹該組件有以下特點:
- 內(nèi)置的PyQuery,以jQuery解析頁面
- 在腳本中完全控制調(diào)度抓取的各項參數(shù)
- 可以向后鏈傳遞信息
- 異常捕獲
我還沒具體看,簡單的看了一眼先得出以下結(jié)論:
- [x] 去取來自fetcher的task,調(diào)用task中process變量的callback函數(shù)(python腳本,存在projectdb中)
- [x] 將合適的數(shù)據(jù)輸出到result
- [x] 有其他后續(xù)任務(wù)則重新放入消息隊列并返回到scheduler中。
其他組件
webui
前端頁面是用Flask框架搭建的Web頁面,具有以下功能:
- web 的可視化任務(wù)監(jiān)控
- web 腳本編寫,單步調(diào)試
- 異常捕獲、log捕獲、print捕獲等
message_queues
因為暫時就用到了Redis,所以介紹一下源碼中用到的Redis方法,其他的可見Redi官方文檔
- [x] loop key : 移除并返回列表key的頭元素
- [x] rpush key value : 將一個或多個value值插入到表key的表尾
- [x] llen key : 返回列表key的長度