實(shí)戰(zhàn)(一)之使用自帶urllib和re正則表達(dá)式獲取電影詳情頁鏈接

一、關(guān)于urllib庫

網(wǎng)上urllib庫的教程文章非常多而且詳細(xì)具體,我就不過多敘述和重復(fù)了,個(gè)人更加傾向于將精力放在實(shí)戰(zhàn)上,而不是反反復(fù)復(fù)拷貝教程(其實(shí)是因?yàn)槲覒校瑏韼灼韶泤⒖肌?/p>

python2:

  1. Python爬蟲入門三之Urllib庫的基本使用

http://cuiqingcai.com/947.html

  1. Python爬蟲入門四之Urllib庫的高級(jí)用法

http://cuiqingcai.com/954.html

python3:
3.python爬蟲從入門到放棄(三)之 Urllib庫的基本使用

http://www.cnblogs.com/zhaof/p/6910871.html

正則表達(dá)式re:
1.菜鳥教程--python正則表達(dá)式

http://www.runoob.com/python3/python3-reg-expressions.html

2.python爬蟲從入門到放棄(五)之 正則的基本使用

http://www.cnblogs.com/zhaof/p/6925674.html

二、思路:

以爬取www.ygdy8.com這個(gè)電影下載網(wǎng)站為例子。

1.打開瀏覽器,搜狗或者chrome都可以,訪問該網(wǎng)站,以爬取最新電影這個(gè)欄目的電影為例,我們可以找到這個(gè)板塊首頁的url為:
http://www.ygdy8.com/html/gndy/dyzz/index.html
再點(diǎn)擊下一頁,會(huì)發(fā)現(xiàn)頁碼的url為
http://www.ygdy8.com/html/gndy/dyzz/list_23_2.html
由此可知,每一頁的url為:
http://www.ygdy8.com/html/gndy/dyzz/list_23_+頁數(shù).html

image.png

2.在將鼠標(biāo)移動(dòng)到電影名字上右鍵,審查元素,這里易會(huì)發(fā)現(xiàn)電影詳情頁的鏈接為<a href="/html/gndy/dyzz/20171112/55519.html">

image.png

將鼠標(biāo)移動(dòng)到末頁字眼右鍵,審查元素,這里會(huì)發(fā)現(xiàn)總共有167頁。
image.png

3.根據(jù)上面的分析查找,基本可以按照這樣的思路進(jìn)行爬取了。

1.先請求index最新電影板塊首頁,獲取到最大的頁數(shù)。
2.循環(huán)構(gòu)造頁碼鏈接,請求獲取所有的帶有電影列表的頁面。
3.在獲取到頁面基礎(chǔ)上,獲得電影列表的所有電影詳情頁鏈接,為下一步提取電影的標(biāo)題,迅雷鏈接做準(zhǔn)備。

三、開始動(dòng)手

1、構(gòu)造一個(gè)urllib請求頁面的opener,盡量模仿瀏覽器,減少被禁的風(fēng)險(xiǎn)。

# -*- coding:utf-8 -*-
#!/usr/bin  python
import urllib.request
import re
import time
import random
from decorator import fun_timer

#構(gòu)建一個(gè)模仿瀏覽器的opener
base_url = 'http://www.ygdy8.com'
#瀏覽器請求頭,這里用的是搜狗瀏覽器
user_agents=[('User-Agent','Mozilla/5.0(Macintosh;U;IntelMacOSX10_6_8;
  en-us)AppleWebKit/534.50(KHTML,likeGecko)Version/5.1Safari/534.50'), ]
    Headers = [ random.choice(user_agents),
            ("Connection","keep-alive") ]
    #構(gòu)建opener
opener = urllib.request.build_opener()
    #添加請求頭
opener.addheaders=Headers

2、構(gòu)造請求首頁,獲取最大頁碼數(shù)的方法。

# 1、獲取最大的頁碼數(shù)
# 2、你可以到頁面查看最大頁碼數(shù),但是頁碼數(shù)是會(huì)不斷增加的,
      #如果你要自動(dòng)化反復(fù)去爬取,就需要進(jìn)行頁碼數(shù)的自動(dòng)獲取。

def get_pageNum():
    url = "http://www.ygdy8.com/html/gndy/dyzz/index.html"
    data = opener.open(url).read()
   #上面的分析已經(jīng)知道頁碼的鏈接是以 list_23_頁數(shù).html結(jié)尾的,可以匹配正則表達(dá)式來查找。
    res = re.findall(r'list\_23\_[0-9]*', str(data))
    if res:
        page_num = res[-1].split("_")[-1]
        print('獲取到頁碼數(shù)%s'%page_num)
        return int(page_num)

3、知道頁數(shù)后,就可以循環(huán)構(gòu)造鏈接進(jìn)行爬取了。

#根據(jù)頁數(shù)爬取每頁的電影列表
def find_by_page(page = 1):
    if page%10==0:
       #每隔10頁進(jìn)行延時(shí),防止ip被禁
        time.sleep(random.randint(1,3))
    url = "http://www.ygdy8.com/html/gndy/dyzz/list_23_%s.html" % (str(page))
    data = opener.open(url).read()

# 正則表達(dá)式獲取鏈接
#因?yàn)轫撁娴淖髠?cè)會(huì)有其他類別電影板塊的外鏈,所以要先定位到class為co_content8的目標(biāo)板塊,
       #再獲取板塊里的所有鏈接。

    res = re.findall(r'class\=\"co\_content8\"[\s\S]*\<\/ul\>', str(data))[0]
    res = re.findall(r'\/html\/gndy[/a-z]+[0-9/]{1,}\.html', str(res))
    urls = [base_url + url for url in res]
    print('爬取第%s頁: '%page+str(urls))
    return urls


#匯總所有的列表,上面的函數(shù)是每頁返回一個(gè)電影詳情頁鏈接列表

def get_urls(pages=1):
    all_url = []
    for page in range(1,pages+1):
         for r in find_by_page(page):
                 all_url.append(r)
    #去重
    all_url= set(all_url)
    print('獲取到%s條鏈接'%len(all_url))
    return all_url

4、最后開始爬取并輸出到TXT文件上。

if __name__ == "__main__":
    out = ''
    for url in get_urls(get_pageNum()):
        url = str(url)+'\n'
        out= out+url
    with open('all_urls.txt','w') as f:
        f.write(out)


image.png

四、總結(jié)

其實(shí)總結(jié)起來,簡單小規(guī)模的爬蟲無非就是分析頁面---請求頁面--獲取目標(biāo)元素--保存等若干步驟,但是真正動(dòng)起手來,就會(huì)遇到各種問題,解決問題也是一個(gè)進(jìn)步的過程。
解決ip被禁有很多種途徑,例如使用代理ip,模擬登陸,隨機(jī)延時(shí)請求,本次我是簡單粗暴地每隔10頁進(jìn)行隨機(jī)的延時(shí)。
這樣我們獲取到所有目標(biāo)電影的詳情頁鏈接,下一步就是進(jìn)行詳情頁的分析爬取了,這涉及到動(dòng)態(tài)加載頁面的爬取,將放到后面幾篇分享哈,下一篇,將介紹使用第三方庫requests庫和xpath匹配爬取詳情頁鏈接喲。

201711042223224161.jpg
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 230,362評(píng)論 6 544
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 99,577評(píng)論 3 429
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 178,486評(píng)論 0 383
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經(jīng)常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 63,852評(píng)論 1 317
  • 正文 為了忘掉前任,我火速辦了婚禮,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 72,600評(píng)論 6 412
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 55,944評(píng)論 1 328
  • 那天,我揣著相機(jī)與錄音,去河邊找鬼。 笑死,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,944評(píng)論 3 447
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 43,108評(píng)論 0 290
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個(gè)月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 49,652評(píng)論 1 336
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 41,385評(píng)論 3 358
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 43,616評(píng)論 1 374
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 39,111評(píng)論 5 364
  • 正文 年R本政府宣布,位于F島的核電站,受9級(jí)特大地震影響,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 44,798評(píng)論 3 350
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 35,205評(píng)論 0 28
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 36,537評(píng)論 1 295
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 52,334評(píng)論 3 400
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 48,570評(píng)論 2 379