針對關鍵詞,采集排名前10位的二級域名

成果

根據關鍵詞文件(一行一個)關鍵詞,找出每個關鍵詞在百度排名前十的二級域名:
這樣如果輸入的是一個行業的關鍵詞,可以比較快速的找出seo的競爭對手,也是一種比較粗暴的對手監控

代碼1

直接采集搜索結果出現的地址


采集1.png
#!/usr/bin/env python
# -*- coding: utf-8 -*-
#encoding=utf-8
from __future__ import division
import time
import requests #用于web頁面抓取,很簡單,需要單獨安裝,安裝很簡單。
import re
from bs4 import BeautifulSoup
kws=open(r'C:\Users\Administrator\Desktop\keywords.txt','r') #盤符可以任意修改,注意不能有空行,初始url文本
morekwsall=open(r'C:\Users\Administrator\Desktop\jzdsbs4.txt','w+',encoding='utf-8')#注意編碼
headers1={
    'Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',
    'Accept-Encoding':'gzip,deflate',
    'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_9_0) AppleWebKit/537.36 (KHTML,like Gecko) Chrome/31.0.1650.63 Safari/537.36'
    'Refer':'http://www.hao123.com/',
    'Cache-Control':'max-age=0',
    'Cookie':'BAIDUID=8A69D49EC2D3B576D17277579AEDA83F:FG=1; BIDUPSID=8A69D49EC2D3B576D17277579AEDA83F; PSTM=1463384511; ' \
                 'BDUSS=2ZESWpnckRaeHRkVjdqN3dJa0RINWNrSDJTbm1sRFVlRUMzelNCVTBwSEliY0ZYQVFBQUFBJCQAAAAAAAAAAAEAAAAVcMhIYWFzZDEzM' \
                 'jM0AAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAMjgmVfI4JlXY; ' \
                 'uc_login_unique=f62bbe2bfc4a840aa437e67dcde239a3; BD_HOME=1; BDRCVFR[S4-dAuiWMmn]=I67x6TjHwwYf0; B64_BOT=1; ' \
                 'BD_UPN=12314353; sug=3; sugstore=1; ORIGIN=2; bdime=0; ' \
                 'BDRCVFR[feWj1Vr5u3D]=I67x6TjHwwYf0; BD_CK_SAM=1; H_PS_PSSID=1428_18280_21116_20592_21189_21160_20929; BDSVRTM=0'
}
kwsline=kws.readlines()
for kw in kwsline:
    utfline= kw.strip()
    utzfline=utfline
    time.sleep(2)  # 還是不能太猖獗
    o = 0
    try:
        urlbaidu1=str('http://www.baidu.com/baidu?wd='+utzfline+'&tn=monline_4_dg')
        rbaidu1 = requests.get(urlbaidu1,headers= headers1,allow_redirects = False)
        print(rbaidu1.status_code)
        soup = BeautifulSoup(rbaidu1.content,'lxml')
        result_urls = soup.select('.c-showurl')
        for result_url in result_urls:
            final_result = result_url.get_text().split('/')[0].split('-')[0].replace('\n', '')\
                .replace(' ', '').replace('...', '').replace('...', '')
            print(final_result)
            morekwsall.write(final_result+'\n')
    except Exception as e:
        o = o+1
        print(e)
        time.sleep(100)
        kwsline.append(kw)
    finally:
        print(o)
kws.close()
morekwsall.close()

print(u'結束!!!')

注意:
當request出錯時,等100s,把出錯的地址塞回列表繼續采集
50出錯,等100s,再采集50

 except Exception as e:
        o = o+1
        print(e)
        time.sleep(100)
        kwsline.append(kw)

代碼2:
獲得搜索結果百度跳轉后的實際地址。。。

![采集3.png](http://upload-images.jianshu.io/upload_images/3117575-c689bf3ff3887ee1.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)
#!/usr/bin/env python
# -*- coding: utf-8 -*-
#encoding=utf-8
from __future__ import division
import time
import requests #用于web頁面抓取,很簡單,需要單獨安裝,安裝很簡單。
import re
from bs4 import BeautifulSoup
from urllib import request
kws=open(r'C:\Users\Administrator\Desktop\keywords.txt','r') #盤符可以任意修改,注意不能有空行,初始url文本
morekwsall=open(r'C:\Users\Administrator\Desktop\jzds.txt','w+',encoding='utf-8')#注意編碼
morekwserror=open(r'C:\Users\Administrator\Desktop\jzds_error.txt','w+',encoding='utf-8')
headers1={
    'Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',
    'Accept-Encoding':'gzip,deflate',
    'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_9_0) AppleWebKit/537.36 (KHTML,like Gecko) Chrome/31.0.1650.63 Safari/537.36'
    'Refer':'http://www.hao123.com/',
    'Cache-Control':'max-age=0',
    'Cookie':'BAIDUID=8A69D49EC2D3B576D17277579AEDA83F:FG=1; BIDUPSID=8A69D49EC2D3B576D17277579AEDA83F; PSTM=1463384511; ' \
                 'BDUSS=2ZESWpnckRaeHRkVjdqN3dJa0RINWNrSDJTbm1sRFVlRUMzelNCVTBwSEliY0ZYQVFBQUFBJCQAAAAAAAAAAAEAAAAVcMhIYWFzZDEzM' \
                 'jM0AAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAMjgmVfI4JlXY; ' \
                 'uc_login_unique=f62bbe2bfc4a840aa437e67dcde239a3; BD_HOME=1; BDRCVFR[S4-dAuiWMmn]=I67x6TjHwwYf0; B64_BOT=1; ' \
                 'BD_UPN=12314353; sug=3; sugstore=1; ORIGIN=2; bdime=0; ' \
                 'BDRCVFR[feWj1Vr5u3D]=I67x6TjHwwYf0; BD_CK_SAM=1; H_PS_PSSID=1428_18280_21116_20592_21189_21160_20929; BDSVRTM=0'
}        
kwsline=kws.readlines()
for kw in kwsline:
    utfline= kw.strip()
    utzfline=utfline
    urlbaidu1=str('http://www.baidu.com/baidu?wd='+utzfline+'&tn=monline_4_dg')
    try:
        rbaidu1 = requests.get(urlbaidu1,headers=headers1)
        soup = BeautifulSoup(rbaidu1.content,'lxml')
        result_urls = soup.select('div > h3 > a')
        for result_url in result_urls:
            #time.sleep(0.5)# 還是不能太猖獗
            try:
                with request.urlopen(result_url.get('href')) as f:
                    real_url = f.geturl()# 會有訪問錯誤,所以獲取失敗實際地址失敗,那失敗應該怎么繼續獲得?
            except Exception as e:
                print("@@@")
                print(result_url)
                morekwserror.write(str(e) +':'+str(result_url) + '\n')
                print(e)
                real_url=('///')
                print(real_url.split('/')[2])
            finally:
                real_url2 = real_url.split('/')[2]
                print(real_url2)
                morekwsall.write(real_url2 + '\n')
    except Exception as e:
        print(e)
        print("!!!!")
        time.sleep(50)
        kwsline.append(kw)

kws.close()
morekwsall.close()

print(u'結束!!!')

多了1個try,因為
request.urlopen和f.geturl()在讀取最終狀態嗎的403,404的頁面的時候會出錯;
我是想至少把錯誤地址也采集下來的,不過失敗了,所以目前是略過了。。
第二個try50出錯,開始51采集

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 230,182評論 6 543
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 99,489評論 3 429
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 178,290評論 0 383
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 63,776評論 1 317
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 72,510評論 6 412
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 55,866評論 1 328
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,860評論 3 447
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 43,036評論 0 290
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 49,585評論 1 336
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 41,331評論 3 358
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 43,536評論 1 374
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 39,058評論 5 363
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,754評論 3 349
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 35,154評論 0 28
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 36,469評論 1 295
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 52,273評論 3 399
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 48,505評論 2 379

推薦閱讀更多精彩內容