零基礎自學用Python 3開發(fā)網(wǎng)絡爬蟲

由于本學期好多神都選了Cisco網(wǎng)絡課, 而我這等弱渣沒選, 去蹭了一節(jié)發(fā)現(xiàn)講的內(nèi)容雖然我不懂但是還是無愛. 我想既然都本科就出來工作還是按照自己愛好來點技能吧, 于是我就不去了. 一個人在宿舍沒有點計劃好的事情做就會很容易虛度, 正好這個學期主打網(wǎng)絡與數(shù)據(jù)庫開發(fā), 那就先學學Python開發(fā)爬蟲吧. 我失散多年的好朋友Jay Loong突然說他會爬蟲了, 點擊鏈接加入群【我愛python大神】:https://jq.qq.com/?_wv=1027&k=47xNlOU我感到真棒, 我也要學 :D 因為一個星期有兩節(jié)Cisco課, 所以本系列博文也就一周兩更.選擇一門語言爬蟲可以用各種語言寫, C++, Java都可以, 為什么要Python? 首先用C++搞網(wǎng)絡開發(fā)的例子不多(可能是我見得太少), 然后由于Oracle收購了Sun, Java目前雖然在Android開發(fā)上很重要, 但是如果Google官司進展不順利, 那么很有可能用Go語言替代掉Java來做Android開發(fā). 在這計算機速度高速增長的年代里, 選語言都要看他爹的業(yè)績, 真是稍不注意就落后于時代. 隨著計算機速度的高速發(fā)展, 某種語言開發(fā)的軟件運行的時間復雜度的常數(shù)系數(shù)已經(jīng)不像以前那么重要, 我們可以越來越偏愛為程序員打造的而不是為計算機打造的語言. 比如Ruby這種傳說中的純種而又飄逸的的OOP語言, 或者Python這種稍嚴謹而流行庫又非常多的語言, 都大大弱化了針對計算機運行速度而打造的特性, 強化了為程序員容易思考而打造的特性. 所以我選擇Python. 選擇Python版本有2和3兩個版本, 3比較新, 聽說改動大. 根據(jù)我在知乎上搜集的觀點來看, 我還是傾向于使用"在趨勢中將會越來越火"的版本, 而非"目前已經(jīng)很穩(wěn)定而且很成熟"的版本. 這是個人喜好, 而且預測不一定準確. 但是如果Python3無法像Python2那么火, 那么整個Python語言就不可避免的隨著時間的推移越來越落后, 因此我想其實選哪個的最壞風險都一樣, 但是最好回報卻是Python3的大. 其實兩者區(qū)別也可以說大也可以說不大, 最終都不是什么大問題. 我選擇的是Python 3. 選擇參考資料由于我是一邊學一邊寫, 而不是我完全學會了之后才開始很有條理的寫, 所以參考資料就很重要(本來應該是個人開發(fā)經(jīng)驗很重要, 但我是零基礎).Python官方文檔知乎相關資料(1) 這篇非常好, 通俗易懂的總覽整個Python學習框架.知乎相關資料(2)寫到這里的時候, 上面第二第三個鏈接的票數(shù)第一的回答已經(jīng)看完了, 點擊鏈接加入群【我愛python大神】:https://jq.qq.com/?_wv=1027&k=47xNlOU他們提到的有些部分(比如爬行的路線不能有回路)我就不寫了. 一個簡單的偽代碼以下這個簡單的偽代碼用到了set和queue這兩種經(jīng)典的數(shù)據(jù)結構, 集與隊列. 集的作用是記錄那些已經(jīng)訪問過的頁面, 隊列的作用是進行廣度優(yōu)先搜索.queue Qset SStartPoint = "http://jecvay.com"Q.push(StartPoint)? # 經(jīng)典的BFS開頭S.insert(StartPoint)? # 訪問一個頁面之前先標記他為已訪問while (Q.empty() == false)? # BFS循環(huán)體? T = Q.top()? # 并且pop? for point in PageUrl(T)? # PageUrl(T)是指頁面T中所有url的集合, point是這個集合中的一個元素.? ? if (point not in S)? ? ? Q.push(point)? ? ? S.insert(point)1234567891011queue Qset SStartPoint = "http://jecvay.com"Q.push(StartPoint)? # 經(jīng)典的BFS開頭S.insert(StartPoint)? # 訪問一個頁面之前先標記他為已訪問while (Q.empty() == false)? # BFS循環(huán)體? T = Q.top()? # 并且pop? for point in PageUrl(T)? # PageUrl(T)是指頁面T中所有url的集合, point是這個集合中的一個元素.? ? if (point not in S)? ? ? Q.push(point)? ? ? S.insert(point)這個偽代碼不能執(zhí)行,? 我覺得我寫的有的不倫不類, 不類Python也不類C++.. 但是我相信看懂是沒問題的, 這就是個最簡單的BFS結構. 我是看了知乎里面的那個偽代碼之后, 自己用我的風格寫了一遍. 你也需要用你的風格寫一遍.這里用到的Set其內(nèi)部原理是采用了Hash表, 傳統(tǒng)的Hash對爬蟲來說占用空間太大, 因此有一種叫做Bloom Filter的數(shù)據(jù)結構更適合用在這里替代Hash版本的set. 我打算以后再看這個數(shù)據(jù)結構怎么使用, 現(xiàn)在先跳過, 因為對于零基礎的我來說, 這不是重點. 代碼實現(xiàn)(一): 用Python抓取指定頁面我使用的編輯器是Idle, 安裝好Python3后這個編輯器也安裝好了, 小巧輕便, 按一個F5就能運行并顯示結果. 代碼如下:#encoding:UTF-8import urllib.requesturl = "http://www.baidu.com"data = urllib.request.urlopen(url).read()data = data.decode('UTF-8')print(data)1234567#encoding:UTF-8import urllib.request url = "http://www.baidu.com"data = urllib.request.urlopen(url).read()data = data.decode('UTF-8')print(data)b0ea9ff58c6ba7c21738257af9af92e3urllib.request是一個庫, 隸屬urllib. 點此打開官方相關文檔. 官方文檔應該怎么使用呢? 首先點剛剛提到的這個鏈接進去的頁面有urllib的幾個子庫, 我們暫時用到了request, 所以我們先看urllib.request部分. 首先看到的是一句話介紹這個庫是干什么用的:The urllib.request module defines functions and classes which help in opening URLs (mostly HTTP) in a complex world — basic and digest authentication, redirections, cookies and more.然后把我們代碼中用到的urlopen()函數(shù)部分閱讀完.urllib.request.urlopen(url, data=None, [timeout, ]*, cafile=None, capath=None, cadefault=False)重點部分是返回值, 這個函數(shù)返回一個 http.client.HTTPResponse 對象, 這個對象又有各種方法, 比如我們用到的read()方法, 這些方法都可以根據(jù)官方文檔的鏈接鏈過去. 根據(jù)官方文檔所寫, 我用控制臺運行完畢上面這個程序后, 又繼續(xù)運行如下代碼, 以更熟悉這些亂七八糟的方法是干什么的.>>> a = urllib.request.urlopen(full_url)>>> type(a)>>> a.geturl()'http://www.baidu.com/s?word=Jecvay'>>> a.info()>>> a.getcode()
點擊鏈接加入群【+學習交流】:https://jq.qq.com/?_wv=1027&k=47xRw91

200

代碼實現(xiàn)(二): 用Python簡單處理URL

如果要抓取百度上面搜索關鍵詞為Jecvay Notes的網(wǎng)頁, 則代碼如下

import urllib

import urllib.request

data={}

data['word']='Jecvay Notes'

url_values=urllib.parse.urlencode(data)

url="http://www.baidu.com/s?"

full_url=url+url_values

data=urllib.request.urlopen(full_url).read()

data=data.decode('UTF-8')

print(data)

1

2

3

4

5

6

7

8

9

10

11

12

13

import urllib

import urllib.request

data={}

data['word']='Jecvay Notes'

url_values=urllib.parse.urlencode(data)

url="http://www.baidu.com/s?"

full_url=url+url_values

data=urllib.request.urlopen(full_url).read()

data=data.decode('UTF-8')

print(data)

data是一個字典, 然后通過urllib.parse.urlencode()來將data轉換為 'word=Jecvay+Notes'的字符串, 最后和url合并為full_url, 其余和上面那個最簡單的例子相同. 關于urlencode(), 同樣通過官方文檔學習一下他是干什么的. 通過查看

urllib.parse.urlencode(query, doseq=False, safe='', encoding=None, errors=None)

urllib.parse.quote_plus(string, safe='', encoding=None, errors=None)

大概知道他是把一個通俗的字符串, 轉化為url格式的字符串.點擊鏈接加入群【+學習交流】:https://jq.qq.com/?_wv=1027&k=47xRw91

學好python你需要一個良好的環(huán)境,一個優(yōu)質(zhì)的開發(fā)交流群,群里都是那種相互幫助的人才是可以的,我有建立一個python學習交流群,在群里我們相互幫助,相互關心,相互分享內(nèi)容,這樣出問題幫助你的人就比較多,群號是304加上050最後799,這樣就可以找到大神聚合的群,如果你只愿意別人幫助你,不愿意分享或者幫助別人,那就請不要加了,你把你會的告訴別人這是一種分享。

感覺寫的好,對你有幫助,就點個贊唄,別光只收藏哈.~( ̄▽ ̄)~

?

最后編輯于
?著作權歸作者所有,轉載或內(nèi)容合作請聯(lián)系作者
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。

推薦閱讀更多精彩內(nèi)容

  • 1 前言 作為一名合格的數(shù)據(jù)分析師,其完整的技術知識體系必須貫穿數(shù)據(jù)獲取、數(shù)據(jù)存儲、數(shù)據(jù)提取、數(shù)據(jù)分析、數(shù)據(jù)挖掘、...
    whenif閱讀 18,107評論 45 523
  • 一、概述 urllib2是Python的一個針對URLs的庫。他以urlopen函數(shù)的形式提供了一個非常簡單的...
    MiracleJQ閱讀 1,513評論 0 5
  • 那么接下來,小伙伴們就一起和我真正邁向我們的爬蟲之路吧。 1.分分鐘扒一個網(wǎng)頁下來 怎樣扒網(wǎng)頁呢?其實就是根據(jù)UR...
    xmsumi閱讀 455評論 0 0
  • 白色的巨塔 從地下慢慢升起 平靜一如古井 歡騰如激浪 悠揚的笛聲 從塔身的窗戶輕快跳出 塔尖的水晶閃耀著光輝 覆蓋...
    月光與墓碑閱讀 549評論 0 0
  • 這周因為特別忙,看書的進展比較慢,一直跟著群里的話題討論,看著媽媽們一起分享交流,收獲還是蠻多的。正面管教中和善而...
    andezhongzi閱讀 181評論 0 0