Python爬蟲之Scrapy框架入門1

環境搭建

在開始搭建scrapy爬蟲的開發環境之前,建議已經安裝Anaconda這個python發行版本,這個可以讓以后的開發過程中,安裝其他的模塊環境不至于出現一堆的錯誤。

假定你安裝好了Anaconda,也配置好了相應的環境變量,這是你可以用以下的命令安裝scrapy框架:

  1. 在終端執行下面這條命令

conda install Scrapy

下面是安裝過程的截圖,是不是很簡單

安裝scrapy

2.通過python的包安裝和管理工具pip來安裝

pip install Scrapy

這樣,scrapy就安裝完成了, 不管通過哪種方式,是不是都很簡單!當然此處推薦使用第一種安裝方式,什么??你就要用第二種,ok,ok,你用好了,體驗一把安裝python模塊庫錯綜復雜,藕斷絲連,欲罷不能,讓人蛋疼依賴關系(有多疼??疼到你懷疑你有一顆假的蛋,沒錯,一顆),也是一種人生的歷練!!

環境安裝好了以后,下面就可以開始我們想入非非,性奮不已的scrapy基礎之路了。
作為流程,下面請允許我從scrapy的官網借(程序員的事情不叫偷的)一些話來湊個字數

項目創建

在開始爬取之前,您必須創建一個新的Scrapy項目(廢話,請忽略)
怎么創建項目??對,沒錯,就是這樣,打開終端:

scrapy新建項目

注意注意 項目取名字的時候,不要像我的這個取得這么見名知意,萬一你的領導或同事沒有八年開發經驗和漢語八級,你可能會被打的

見名知意

項目創建完成,可以看到下面的項目目錄

項目結構

下面該寫爬蟲了??no!!在開始寫爬蟲之前還是來了解一下scrapy的工作流程!

scrapy工作流程圖

沒錯我又從網上偷來的這張圖

??圖看不太懂?我艸,我就知道有人跟我一樣,沒關系,來來來,看看別人通俗形象的解釋:

引擎:Hi!Spider, 你要處理哪一個網站?

Spiders:我要處理xxoo.com

引擎:你把第一個需要的處理的URL給我吧。

Spiders:給你第一個URL是XXXXXXX.com

引擎:Hi!調度器,我這有request你幫我排序入隊一下。

調度器:好的,正在處理你等一下。

引擎:Hi!調度器,把你處理好的request給我,

調度器:給你,這是我處理好的request

引擎:Hi!下載器,你按照下載中間件的設置幫我下載一下這個request

下載器:好的!給你,這是下載好的東西。(如果失敗:不好意思,這個request下載失敗,然后引擎告訴調度器,這個request下載失敗了,你記錄一下,我們待會兒再下載。)

引擎:Hi!Spiders,這是下載好的東西,并且已經按照Spider中間件處理過了,你處理一下(注意!這兒responses默認是交給def parse這個函數處理的)

Spiders:(處理完畢數據之后對于需要跟進的URL),Hi!引擎,這是我需要跟進的URL,將它的responses交給函數 def xxxx(self, responses)處理。還有這是我獲取到的Item。

引擎:Hi !Item Pipeline 我這兒有個item你幫我處理一下!調度器!這是我需要的URL你幫我處理下。然后從第四步開始循環,直到獲取到你需要的信息,

注意!只有當調度器中不存在任何request了,整個程序才會停止,(也就是說,對于下載失敗的URL,Scrapy會重新下載。)

以上就是Scrapy整個流程了。

注: 以上引用自博客http://cuiqingcai.com/3472.html

以上完成了對scrapy的工作流程的理解,下面開始進入正題,開始我們的小爬蟲,用于scrapy官網給出的例子中的domz網站已經永久關閉,所以下面的例子,我們以http://quotes.toscrape.com/tag/humor/這個網站為例。

Item編寫

觀察網頁的結構后,確定一下需要爬取的頁面和想要爬取的內容字段,比如,你要要爬取番號,封面,還是種子呢?別激動,我們在這里只爬取上面的網站每個條目的標題鏈接作者標簽四個字段,

確定要爬取的字段以后,就可以開始爬蟲的編寫,在==items.py==文件中加入我們要爬取的字段,如下圖所示:

item定義

爬蟲文件編寫

確定以及定義好了我們需要提取的字段,下面就該開始爬蟲的編寫了,在spiders文件夾下新建自己的爬蟲文件:

新建spider文件

對于這個文件里的幾行代碼,這里只簡單的解釋一下,詳細的介紹以后再說,畢竟這里只是入門嘛!

開始我們導入scrapy模塊(這行還看不懂的話)。。。。

我還能說什么

除了這個模塊,我們還需要導入之前編寫的item文件。之后是定義了一個spider類,該類繼承自scrapy.Spider,下面的name = 'PachongSpider'是爬蟲的名字,這個名字是唯一的,因為在完成代碼后運行爬蟲要用到這個名字,start_urls 列表里存放要爬取的鏈接地址,scrapy會自動從這個列表取出地址進行爬取,并將返回的response作為參數傳遞給self.parse,在self.parse里就可以從response解析出需要的數據字段(即item里定義的字段)。

關于數據的解析,scrapy提供了多種方式,xpath,css,re,都是可以的,這里先來試試xpath,如果對xpath不是很熟悉,可以先看一下http://www.w3school.com.cn/xpath/index.asp,看了,還不會用???多試幾遍就會了,或者也可以借助強大的chrome瀏覽器

提取xpath

爬蟲的編寫如下:

#coding:utf-8

import scrapy
from pachong.items import PachongItem

class QuotesSpider(scrapy.Spider):
    name =  'pachong'
    start_urls = [
        'http://quotes.toscrape.com/tag/humor/',
    ]

    def parse(self, response):
        base_url = 'http://quotes.toscrape.com'
        item = PachongItem()
        divs = response.xpath('//div[@class="quote"]')
        for div in divs:
            item['name'] = div.xpath('span[@class="text"]/text()').extract()[0]
            item['url'] = base_url+div.xpath('span/a/@href').extract()[0]
            item['tags'] = div.xpath('div[@class="tags"]/a/text()').extract()
            item['author'] = div.xpath('span/small[@class="author"]/text()').extract()[0]
            print(item)
            yield item

數據持久化

最后我們將爬取的數據持久化到本地,可以存儲在文件中,csv,json,當然也可以是數據庫,這里采用mongodb來存儲(關于python使用mongodb,請自行百度),如同文章開始介紹的,數據持久化需要在pipelines.py文件中進行,
一下開始編寫pipelines.py文件

import pymongo

class PachongPipeline(object):
    def __init__(self):
        self.client = pymongo.MongoClient('localhost', 27017)
        self.pchdb = self.client['pchdb']
        self.pchtab = self.pchdb['pchtab']

    def process_item(self, item, spider):
        self.pchtab.insert_one(dict(item))
        return item

首先導入mongodb的python依賴模塊,在pipelines.py初始化方法中,連接到mongodb數據庫,在process_item方法中向數據庫插入數據。這個文件編寫完成,需要在settings.py文件中配置該管道

ITEM_PIPELINES = {
   'pachong.pipelines.PachongPipeline': 1,
}

如果運行了程序,數據庫沒有數據,可能是沒有在settings里配置ITEM_PIPELINES。

下面就是運行腳本了,打開終端,進入到爬蟲的根目錄(到達根目錄,scrapy list命令查看爬蟲的列表就是前面所說的spider里面的name對應的值),然后輸入scrapy crawl pachong,腳本運行完成可以在數據庫看到爬取到的數據了

爬取到的數據

最后說一下,每次都要打開終端輸入命令來運行腳本多少有些不便,可以在項目的根目錄下新建一個python文件輸入下面的代碼:

from scrapy.cmdline import execute
execute(['scrapy', 'crawl', 'pachong'])

execute方法的的參數list中的三個元素是不是很熟悉,沒錯,就是前面在終端輸入過的命令,第三個元素是根據你爬蟲的“name”來定的

至此一個簡單的爬蟲就完成了,至于怎么爬取有分頁的網頁,怎么設置代理,應對反爬,以及怎么爬取js動態加載的頁面,將會在后面的博客中講到。
最后是代碼地址:https://github.com/lexyhp/pachong

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 228,835評論 6 534
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 98,676評論 3 419
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 176,730評論 0 380
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 63,118評論 1 314
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 71,873評論 6 410
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 55,266評論 1 324
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,330評論 3 443
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 42,482評論 0 289
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 49,036評論 1 335
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 40,846評論 3 356
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 43,025評論 1 371
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 38,575評論 5 362
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,279評論 3 347
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 34,684評論 0 26
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 35,953評論 1 289
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 51,751評論 3 394
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 48,016評論 2 375

推薦閱讀更多精彩內容