實踐才是檢驗真理的唯一標準-爬蟲制作(一)

前言:

這篇文章是真正的干貨,我會盡力的把自己所要表達的東西表達出來。這次所完成的小程序缺點第一,不符合python面向對象的思想。第二,東西沒有做到函數化,而且挺多參數都是寫死的。本人也是做中學,下次再寫會盡力讓它完美一些。

目標:

本人最近新有了一個ipad mini,體會到了蘋果公司科技的力量,怪不得果粉這么多。(ipad用wps看pdf書籍真的好用,一般人我不告訴他。不過希望大家還是買正版書,紙質書真的比電子的強)。所以想獲得二手平板的信息,去吧就決定是你了:


58同城:http://bj.58.com/pbdn/0/pn1/

58

我們要爬取這個頁面的所有個人的信息

就是這種↑

點進去

隱約看到了賣家的臉

我們要:標題,價格,時間,地點,商家還是個人。

為了完成這個小工程,我們需要引入幾個第三方庫:lxml,requests,BeautifulSoup。這幾個庫的用法請自行查閱官方文檔,首先在最開始import所要用的庫

from bs4 import BeautifulSoup

import requests

然后通過觀察頁面網址的變化:

廣告真多

聰明的你一定發現了,商家和個人的區別就在于網址的一處變化,商家為http://bj.58.com/pbdn/1/個人為http://bj.58.com/pbdn/0/,所以寫一個簡單的函數:

def who_sell(who_sells=0):

??? list_view ='http://bj.58.com/pbdn/{}/pn1/'.format(str(who_sells))

??? return list_view

通過你改變函數參數,返回一個字符串,這里參數0就是個人1是商家,0為默認參數。接下來就是選出這個頁面中你想要的信息的連接:

main_url = who_sell(0)???????????????????????????????????????????????????? ?? (1)

web_data = requests.get(main_url)????????????????????????????????????? (2)

soup = BeautifulSoup(web_data.text,'lxml')?????????????? ?? ??????? (3)

select = soup.select('td.t a.t')????????????????????????????????????? ? ?????? (4)

leimu = who_sell(0)[:22]????????????????????????????????????????????? ? ????? (5)

print(leimu)???????????????????????????????????????????????????????????????????????? (6)

page_link = []????????????????????????????????????????????????????????????????????? (7)

for href in select:

? ? page_link.append(href.get('href'))? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?? (8)

(1):我們先通過調用函數選中個人,返回一個網址,復制給main_url
(2):通過向這個選中的網址發送request請求,把得到的結果賦值給web_data
(3):對web_data的文本通過bs進行解析
(4):通過select函數選出你想要的東西,而‘td.t a.t’這個的來源先請看圖:

來,檢查一下

在你想要看的元素上面右鍵,檢查:

是不是一臉蒙b

學過網頁的小伙伴很快就能明白,這其中的奧秘,如果一臉霧水的小伙伴就可以看一下HTML5以及css的知識,這里個人推一下w3school 。看完這個,這里的東西就會很輕松讀懂。觀察之后你會發現,我們所需要的東西在一個<td class="t"><a href="所要去的網址" class="t"></a></td>之中,我們要把href提取出來,所以我們select之中的差數即為‘td.t a.t’。這里的點可以理解為td的標簽下 class=‘t’。通過這個唯一標識,我們就能get到想要的東西
(5):返回類目,也就是我們爬取的根網頁,這個并不是我們想要的東西,只是方便將來我看爬取的東西是什么。用了切片切取了網頁的前22位。(6):打印出來類目
(7):創建一個list,用來存放網址
(8):把獲取的網址添加到list中去

現在我們已經有了具體的網址,接下來我們要爬取具體信息了:
for url inpage_link:

??? inf = requests.get(url)

??? inf_soup = BeautifulSoup(inf.text,'lxml')

??? titles = inf_soup.select('div.col_sub.mainTitle > h1')

??? times = inf_soup.select('li.time')

??? prices = inf_soup.select('div.su_con > span.price')

??? places = inf_soup.select('div.su_con > span.c_25d')

??? if titles==[]:

??????? title=['null']

??? else:

?? ? ?? title=titles[0].get_text()

??? if times == []:

??????? time = ['空']

??? else:

??????? time = times[0].text

??? if prices == []:

??????? price = ['null']

??? else:

??????? price= prices[0].text

??? if places == []:

??????? place = ['null']

??? else:

??????? place = places[0].text[1:3]+places[0].text[-3:-1]

??? data = {

??? 'title': title,

??? 'time': time,

??? 'price': price,

??? 'places': place,

??? '類型':'個人'if(main_url[22:23] =='0')else'商家'

?}

??? if(title!=['null']):

?? ? ?? print(data)

for循環的意思即為,遍歷list中所有的網址。
inf = requests.get(url)

inf_soup = BeautifulSoup(inf.text,'lxml')

titles = inf_soup.select('div.col_sub.mainTitle > h1')

times = inf_soup.select('li.time')

prices = inf_soup.select('div.su_con > span.price')

places = inf_soup.select('div.su_con > span.c_25d')

同get到href的方法,右鍵檢查

3000,好貴

以價格為例,在class='su_con'的子標簽中他的clss='price c_f50',我們根據這個就可以提取出來所想要的信息。
if titles==[]:

title=['null']

else:

title=titles[0].get_text()

if times == []:

time = ['空']

else:

time = times[0].text

if prices == []:

price = ['null']

else:

price= prices[0].text

if places == []:

place = ['null']

else:

place = places[0].text[1:3]+places[0].text[-3:-1]
在這些if語句中,如果賣家沒填這些信息,我們把他設為空,如果填了我們就用.text方法把兩個標簽之間夾的信息提取出來,例如price里的3000。這里的地址使用了切片因為提取出來的信息含有大量的換行符。所以切取想要的部分,并用加號連接。
data = {

'title': title,

'time': time,

'price': price,

'places': place,

'類型':'個人'if(main_url[22:23] =='0')else'商家'

}

if(title!=['null']):

??? print(data)
把提取的信息存放到一個叫data的字典里。這里有一個問題,直接輸出字典會出現全空的網頁,所以這里通過過濾title的方法來過濾掉沒用的信息。我們可以看一下結果:

是不是感覺amazing

最后:

就是這樣~是不是感覺還可以。這只是一個簡單的版本,有興趣的小伙伴可以把整個北京的信息都爬取下來,可以做一些簡單的數據處理。只需要在加一個循環即可。

可以加博主qq:844255371 咱們共同研究,記得附上備注簡書。

博主臉皮中等厚度,記得文明探討

最后的最后,附上github,ipad.py就是源代碼。github?

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 229,117評論 6 537
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 98,860評論 3 423
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 177,128評論 0 381
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 63,291評論 1 315
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 72,025評論 6 410
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 55,421評論 1 324
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,477評論 3 444
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 42,642評論 0 289
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 49,177評論 1 335
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 40,970評論 3 356
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 43,157評論 1 371
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 38,717評論 5 362
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,410評論 3 347
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 34,821評論 0 28
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 36,053評論 1 289
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 51,896評論 3 395
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 48,157評論 2 375

推薦閱讀更多精彩內容