python-urllib2(轉載)

urllib2是Python的一個獲取URLs的組件。他以urlopen函數的形式提供了一個非常簡單的接口,具有利用不同協議獲取URLs的能力,同樣提供了一個比較復雜的接口來處理一般情況。

urllib2支持獲取不同格式的URLs例如:ftp、Gopher等,并利用它們相關網絡協議進行獲取。

urllib2可用來完成以下功能:

1.獲取Web頁面

2.在遠程http服務器上驗證

3.額外數據請求,如表單提交(GET和POST)

4.異常處理

5.非http協議通信(如FTP)

1.獲取Web頁面

例1:打印html頁面,下面是最簡單的形式

#!/usr/bin/env python

importurllib2

response=urllib2.urlopen('http://www.google.com')

html=response.read()

printhtml

例2:打開指定頁面并打印html頁面和一些額外的信息,采用了urllib2最一般的形式:i、urllib2.Request()的功能是構造一個請求信息,返回的req就是一個構造好的請求。ii、urllib2.urlopen()的功能是發送剛剛構造好的請求req,并返回一個文件類的對象response,包括了所有的返回信息。iii、通過response.read()可以讀取到response里面的html,通過response.info()可以讀到一些額外的信息。

#!/usr/bin/env python

importsys,urllib2

req=urllib2.Request(sys.argv[1])

response=urllib2.urlopen(req)

print"Retrieved",response.geturl()

info=response.info()

forkey,valueininfo.items():

print"%s = %s"%(key,value)

html=response.read()

printhtml

2.在遠程http服務器上驗證

有些站點需要http認證后才能訪問。最普通的認證類型是基本認證,由客戶端向服務器器發送一個用戶名和密碼。http認證一般顯示一個彈出窗口來詢問用戶名和密碼,這與基于cookie和form的認證不同。

下面是一個例子,首先定義了一個擴展urllib2.HTTPPasswordMgr的類,允許在需要的時候詢問用戶名和密碼,然后調用build_opener()指定一些額外處理,其實在urllib2.urlopen()內部調用了build_opener(),并且不帶任何參數。所以在訪問常規網站的時候urllib2.urlopen()等于opener.open()返回都一樣。

#!/usr/bin/env python

importsys,urllib2,getpass

classBasePassword(urllib2.HTTPPasswordMgr):

deffind_user_password(self,realm,authurl):

ret=urllib2.HTTPPasswordMgr.find_user_password(self,realm,authuri)

ifret[0]==Noneandret[1]==None:

sys.stdout.write("Login reauired for %s at %sn"%(realm,authurl))

sys.stdout.write("Username: ")

username=sys.stdin.readline().rstrip()

password=getpass.getpass().rstrip()

return(username,password)

else:

returnret

req=urllib2.Request(sys.argv[1])

opener=urllib2.build_opener(urllib2.HTTPBasicAuthHandler(BasePassword()))

response=opener.open(req)

printresponse.read()

3.表單提交(GET和POST)

有兩種方法提交表單數據:GET和POST,取決于HTML文檔中標簽里面的參數

GET實例:

#!/usr/bin/env python

importsys,urllib2,urllib

keyword=sys.argv[1]

url=url+'?'+urllib.urlencode('http://www.xxx.com',[('query',keyword)])

req=urllib2.Request(url)

response=urllib2.urlopen(req)

printresponse.read()

POST實例:

#!/usr/bin/env python

importsys,urllib2,urllib

keyword=sys.argv[1]

url='http://www.xxx.com'

data=urllib.urlencode([('query',keyword)])

req=urllib2.Request(url)

response=urllib2.urlopen(req,data)

更一般的提交數據,通過urllib2.Request()構造一個有額外數據的請求信息。包括“http

header”和想要發送的數據,這些數據需要被以標準的方式encode,然后作為一個數據參數傳送給Request對象。Encoding是在urllib中完成的,而不是在urllib2中完成的。

如下例:

#!/usr/bin/env python

import urllib,urllib2

url='http://www.baidu.com'

user_agent='Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'

values={'name':'Michael Foord','location':'Northampton','language':'Python'}

headers={'User-Agent':user_agent}

data=urllib.urlencode(values)

req=urllib2.Request(url,data,headers)

response=urllib2.urlopen(req)

the_page=response.read()

4.異常處理

捕獲連接錯誤,在和遠程Web服務器建立連接時,很多地方可能出現問題:提供的URL不對、URL使用了一個不支持的協議、主機名不存在、訪問不到服務器或者服務器針對請求返回一個錯誤(例如:404)。

任何在連接過程中產生的異常要么是urllib2.URLError的實例,要么是它的一個子類。

#!/usr/bin/env python

import sys,urllib2

req=urllib2.Request(sys.argv[1])

try:

response=urllib2.urlopen(req)

excepturllib2.URLError,e:

print"Error retrieving data:",e

sys.exit(1)

printresponse.read()

5.非http協議通信(如FTP)

urllib2模塊也支持非http協議。默認情況下支持http、ftp、gopher和機器本地硬盤上的文件,只是response.info()返回的報頭會有所差異。



使用細節

1 Proxy 的設置

urllib2 默認會使用環境變量 http_proxy 來設置 HTTP Proxy。如果想在程序中明確控制 Proxy,而不受環境變量的影響,可以使用下面的方式:

import urllib2

enable_proxy=True

proxy_handler=urllib2.ProxyHandler({"http":'http://some-proxy.com:8080'})

null_proxy_handler=urllib2.ProxyHandler({})

ifenable_proxy:

opener=urllib2.build_opener(proxy_handler)

else:

opener=urllib2.build_opener(null_proxy_handler)

urllib2.install_opener(opener)

這里要注意的一個細節,使用 urllib2.install_opener() 會設置

urllib2 的全局 opener。這樣后面的使用會很方便,但不能做更細粒度的控制,比如想在程序中使用兩個不同的 Proxy

設置等。比較好的做法是不使用 install_opener 去更改全局的設置,而只是直接調用 opener 的 open 方法代替全局的

urlopen 方法。

2 Timeout 設置

在老版本中,urllib2 的 API 并沒有暴露 Timeout 的設置,要設置 Timeout 值,只能更改 Socket 的全局 Timeout 值。

importurllib2

importsocket

socket.setdefaulttimeout(10)# 10 秒鐘后超時

urllib2.socket.setdefaulttimeout(10)# 另一種方式

在新的 Python 2.6 版本中,超時可以通過 urllib2.urlopen() 的 timeout 參數直接設置。

importurllib2

response=urllib2.urlopen('http://www.google.com',timeout=10)

3 在 HTTP Request 中加入特定的 Header

要加入 Header,需要使用 Request 對象:

importurllib2

request=urllib2.Request(uri)

request.add_header('User-Agent','fake-client')

response=urllib2.urlopen(request)

對有些 header 要特別留意,Server 端會針對這些 header 做檢查

User-Agent 有些 Server 或 Proxy 會檢查該值,用來判斷是否是瀏覽器發起的 Request

Content-Type 在使用 REST 接口時,Server 會檢查該值,用來確定 HTTP Body 中的內容該怎樣解析。

常見的取值有:

application/xml :在 XML RPC,如 RESTful/SOAP 調用時使用

application/json :在 JSON RPC 調用時使用

application/x-www-form-urlencoded :瀏覽器提交 Web 表單時使用

……

在使用 RPC 調用 Server 提供的 RESTful 或 SOAP 服務時, Content-Type 設置錯誤會導致 Server 拒絕服務。

4 Redirect

urllib2 默認情況下會針對 3xx HTTP 返回碼自動進行 Redirect 動作,無需人工配置。要檢測是否發生了 Redirect 動作,只要檢查一下 Response 的 URL 和 Request 的 URL 是否一致就可以了。

importurllib2

response=urllib2.urlopen('http://www.google.cn')

redirected=response.geturl()=='http://www.google.cn'

如果不想自動 Redirect,除了使用更低層次的 httplib 庫之外,還可以使用自定義的 HTTPRedirectHandler 類。

importurllib2

classRedirectHandler(urllib2.HTTPRedirectHandler):

defhttp_error_301(self,req,fp,code,msg,headers):

pass

defhttp_error_302(self,req,fp,code,msg,headers):

pass

opener=urllib2.build_opener(RedirectHandler)

opener.open('http://www.google.cn')

5 Cookie

urllib2 對 Cookie 的處理也是自動的。如果需要得到某個 Cookie 項的值,可以這么做:

importurllib2

importcookielib

cookie=cookielib.CookieJar()

opener=urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie))

response=opener.open('http://www.google.com')

foritemincookie:

ifitem.name=='some_cookie_item_name':

printitem.value

6 使用 HTTP 的 PUT 和 DELETE 方法

urllib2 只支持 HTTP 的 GET 和 POST 方法,如果要使用 HTTP PUT 和 DELETE,只能使用比較低層的 httplib 庫。雖然如此,我們還是能通過下面的方式,使 urllib2 能夠發出 HTTP PUT 或 DELETE

的包:

importurllib2

request=urllib2.Request(uri,data=data)

request.get_method=lambda:'PUT'#or'DELETE'

response=urllib2.urlopen(request)

這種做法雖然屬于 Hack 的方式,但實際使用起來也沒什么問題。

7 得到 HTTP 的返回碼

對于 200 OK 來說,只要使用 urlopen 返回的 response 對象的 getcode() 方法就可以得到 HTTP 的返回碼。但對其它返回碼來說,urlopen 會拋出異常。這時候,就要檢查異常對象的 code 屬性了:

importurllib2

try:

response=urllib2.urlopen('http://restrict.web.com')

excepturllib2.HTTPError,e:

printe.code

8 Debug Log

使用 urllib2 時,可以通過下面的方法把 Debug Log 打開,這樣收發包的內容就會在屏幕上打印出來,方便我們調試,在一定程度上可以省去抓包的工作。

importurllib2

httpHandler=urllib2.HTTPHandler(debuglevel=1)

httpsHandler=urllib2.HTTPSHandler(debuglevel=1)

opener=urllib2.build_opener(httpHandler,httpsHandler)

urllib2.install_opener(opener)

response=urllib2.urlopen('http://www.google.com')

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。

推薦閱讀更多精彩內容

  • 一、概述 urllib2是Python的一個針對URLs的庫。他以urlopen函數的形式提供了一個非常簡單的...
    MiracleJQ閱讀 1,508評論 0 5
  • 1 前言 作為一名合格的數據分析師,其完整的技術知識體系必須貫穿數據獲取、數據存儲、數據提取、數據分析、數據挖掘、...
    whenif閱讀 18,105評論 45 523
  • Python入門網絡爬蟲之精華版 網址: https://github.com/lining0806/Python...
    ZHANG_GO閱讀 663評論 0 2
  • Python學習網絡爬蟲主要分3個大的版塊:抓取,分析,存儲 另外,比較常用的爬蟲框架Scrapy,這里最后也詳細...
    楚江數據閱讀 1,482評論 0 6
  • 本以為離開象牙塔,便少了一份束縛,多了一份逍遙,哪知其實踏入了另一座圍城,一座圍城…… 畢業原本計劃離開帝都,找個...
    璐璐要去外太空閱讀 350評論 0 1