urllib2是Python的一個獲取URLs的組件。他以urlopen函數(shù)的形式提供了一個非常簡單的接口,具有利用不同協(xié)議獲取URLs的能力,同樣提供了一個比較復雜的接口來處理一般情況。
urllib2支持獲取不同格式的URLs例如:ftp、Gopher等,并利用它們相關網(wǎng)絡協(xié)議進行獲取。
urllib2可用來完成以下功能:
1.獲取Web頁面
2.在遠程http服務器上驗證
3.額外數(shù)據(jù)請求,如表單提交(GET和POST)
4.異常處理
5.非http協(xié)議通信(如FTP)
1.獲取Web頁面
例1:打印html頁面,下面是最簡單的形式
#!/usr/bin/env python
importurllib2
response=urllib2.urlopen('http://www.google.com')
html=response.read()
printhtml
例2:打開指定頁面并打印html頁面和一些額外的信息,采用了urllib2最一般的形式:i、urllib2.Request()的功能是構造一個請求信息,返回的req就是一個構造好的請求。ii、urllib2.urlopen()的功能是發(fā)送剛剛構造好的請求req,并返回一個文件類的對象response,包括了所有的返回信息。iii、通過response.read()可以讀取到response里面的html,通過response.info()可以讀到一些額外的信息。
#!/usr/bin/env python
importsys,urllib2
req=urllib2.Request(sys.argv[1])
response=urllib2.urlopen(req)
print"Retrieved",response.geturl()
info=response.info()
forkey,valueininfo.items():
print"%s = %s"%(key,value)
html=response.read()
printhtml
2.在遠程http服務器上驗證
有些站點需要http認證后才能訪問。最普通的認證類型是基本認證,由客戶端向服務器器發(fā)送一個用戶名和密碼。http認證一般顯示一個彈出窗口來詢問用戶名和密碼,這與基于cookie和form的認證不同。
下面是一個例子,首先定義了一個擴展urllib2.HTTPPasswordMgr的類,允許在需要的時候詢問用戶名和密碼,然后調用build_opener()指定一些額外處理,其實在urllib2.urlopen()內部調用了build_opener(),并且不帶任何參數(shù)。所以在訪問常規(guī)網(wǎng)站的時候urllib2.urlopen()等于opener.open()返回都一樣。
#!/usr/bin/env python
importsys,urllib2,getpass
classBasePassword(urllib2.HTTPPasswordMgr):
deffind_user_password(self,realm,authurl):
ret=urllib2.HTTPPasswordMgr.find_user_password(self,realm,authuri)
ifret[0]==Noneandret[1]==None:
sys.stdout.write("Login reauired for %s at %sn"%(realm,authurl))
sys.stdout.write("Username: ")
username=sys.stdin.readline().rstrip()
password=getpass.getpass().rstrip()
return(username,password)
else:
returnret
req=urllib2.Request(sys.argv[1])
opener=urllib2.build_opener(urllib2.HTTPBasicAuthHandler(BasePassword()))
response=opener.open(req)
printresponse.read()
3.表單提交(GET和POST)
有兩種方法提交表單數(shù)據(jù):GET和POST,取決于HTML文檔中標簽里面的參數(shù)
GET實例:
#!/usr/bin/env python
importsys,urllib2,urllib
keyword=sys.argv[1]
url=url+'?'+urllib.urlencode('http://www.xxx.com',[('query',keyword)])
req=urllib2.Request(url)
response=urllib2.urlopen(req)
printresponse.read()
POST實例:
#!/usr/bin/env python
importsys,urllib2,urllib
keyword=sys.argv[1]
url='http://www.xxx.com'
data=urllib.urlencode([('query',keyword)])
req=urllib2.Request(url)
response=urllib2.urlopen(req,data)
更一般的提交數(shù)據(jù),通過urllib2.Request()構造一個有額外數(shù)據(jù)的請求信息。包括“http
header”和想要發(fā)送的數(shù)據(jù),這些數(shù)據(jù)需要被以標準的方式encode,然后作為一個數(shù)據(jù)參數(shù)傳送給Request對象。Encoding是在urllib中完成的,而不是在urllib2中完成的。
如下例:
#!/usr/bin/env python
import urllib,urllib2
url='http://www.baidu.com'
user_agent='Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'
values={'name':'Michael Foord','location':'Northampton','language':'Python'}
headers={'User-Agent':user_agent}
data=urllib.urlencode(values)
req=urllib2.Request(url,data,headers)
response=urllib2.urlopen(req)
the_page=response.read()
4.異常處理
捕獲連接錯誤,在和遠程Web服務器建立連接時,很多地方可能出現(xiàn)問題:提供的URL不對、URL使用了一個不支持的協(xié)議、主機名不存在、訪問不到服務器或者服務器針對請求返回一個錯誤(例如:404)。
任何在連接過程中產(chǎn)生的異常要么是urllib2.URLError的實例,要么是它的一個子類。
#!/usr/bin/env python
import sys,urllib2
req=urllib2.Request(sys.argv[1])
try:
response=urllib2.urlopen(req)
excepturllib2.URLError,e:
print"Error retrieving data:",e
sys.exit(1)
printresponse.read()
5.非http協(xié)議通信(如FTP)
urllib2模塊也支持非http協(xié)議。默認情況下支持http、ftp、gopher和機器本地硬盤上的文件,只是response.info()返回的報頭會有所差異。
使用細節(jié)
1 Proxy 的設置
urllib2 默認會使用環(huán)境變量 http_proxy 來設置 HTTP Proxy。如果想在程序中明確控制 Proxy,而不受環(huán)境變量的影響,可以使用下面的方式:
import urllib2
enable_proxy=True
proxy_handler=urllib2.ProxyHandler({"http":'http://some-proxy.com:8080'})
null_proxy_handler=urllib2.ProxyHandler({})
ifenable_proxy:
opener=urllib2.build_opener(proxy_handler)
else:
opener=urllib2.build_opener(null_proxy_handler)
urllib2.install_opener(opener)
這里要注意的一個細節(jié),使用 urllib2.install_opener() 會設置
urllib2 的全局 opener。這樣后面的使用會很方便,但不能做更細粒度的控制,比如想在程序中使用兩個不同的 Proxy
設置等。比較好的做法是不使用 install_opener 去更改全局的設置,而只是直接調用 opener 的 open 方法代替全局的
urlopen 方法。
2 Timeout 設置
在老版本中,urllib2 的 API 并沒有暴露 Timeout 的設置,要設置 Timeout 值,只能更改 Socket 的全局 Timeout 值。
importurllib2
importsocket
socket.setdefaulttimeout(10)# 10 秒鐘后超時
urllib2.socket.setdefaulttimeout(10)# 另一種方式
在新的 Python 2.6 版本中,超時可以通過 urllib2.urlopen() 的 timeout 參數(shù)直接設置。
importurllib2
response=urllib2.urlopen('http://www.google.com',timeout=10)
3 在 HTTP Request 中加入特定的 Header
要加入 Header,需要使用 Request 對象:
importurllib2
request=urllib2.Request(uri)
request.add_header('User-Agent','fake-client')
response=urllib2.urlopen(request)
對有些 header 要特別留意,Server 端會針對這些 header 做檢查
User-Agent 有些 Server 或 Proxy 會檢查該值,用來判斷是否是瀏覽器發(fā)起的 Request
Content-Type 在使用 REST 接口時,Server 會檢查該值,用來確定 HTTP Body 中的內容該怎樣解析。
常見的取值有:
application/xml :在 XML RPC,如 RESTful/SOAP 調用時使用
application/json :在 JSON RPC 調用時使用
application/x-www-form-urlencoded :瀏覽器提交 Web 表單時使用
……
在使用 RPC 調用 Server 提供的 RESTful 或 SOAP 服務時, Content-Type 設置錯誤會導致 Server 拒絕服務。
4 Redirect
urllib2 默認情況下會針對 3xx HTTP 返回碼自動進行 Redirect 動作,無需人工配置。要檢測是否發(fā)生了 Redirect 動作,只要檢查一下 Response 的 URL 和 Request 的 URL 是否一致就可以了。
importurllib2
response=urllib2.urlopen('http://www.google.cn')
redirected=response.geturl()=='http://www.google.cn'
如果不想自動 Redirect,除了使用更低層次的 httplib 庫之外,還可以使用自定義的 HTTPRedirectHandler 類。
importurllib2
classRedirectHandler(urllib2.HTTPRedirectHandler):
defhttp_error_301(self,req,fp,code,msg,headers):
pass
defhttp_error_302(self,req,fp,code,msg,headers):
pass
opener=urllib2.build_opener(RedirectHandler)
opener.open('http://www.google.cn')
5 Cookie
urllib2 對 Cookie 的處理也是自動的。如果需要得到某個 Cookie 項的值,可以這么做:
importurllib2
importcookielib
cookie=cookielib.CookieJar()
opener=urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie))
response=opener.open('http://www.google.com')
foritemincookie:
ifitem.name=='some_cookie_item_name':
printitem.value
6 使用 HTTP 的 PUT 和 DELETE 方法
urllib2 只支持 HTTP 的 GET 和 POST 方法,如果要使用 HTTP PUT 和 DELETE,只能使用比較低層的 httplib 庫。雖然如此,我們還是能通過下面的方式,使 urllib2 能夠發(fā)出 HTTP PUT 或 DELETE
的包:
importurllib2
request=urllib2.Request(uri,data=data)
request.get_method=lambda:'PUT'#or'DELETE'
response=urllib2.urlopen(request)
這種做法雖然屬于 Hack 的方式,但實際使用起來也沒什么問題。
7 得到 HTTP 的返回碼
對于 200 OK 來說,只要使用 urlopen 返回的 response 對象的 getcode() 方法就可以得到 HTTP 的返回碼。但對其它返回碼來說,urlopen 會拋出異常。這時候,就要檢查異常對象的 code 屬性了:
importurllib2
try:
response=urllib2.urlopen('http://restrict.web.com')
excepturllib2.HTTPError,e:
printe.code
8 Debug Log
使用 urllib2 時,可以通過下面的方法把 Debug Log 打開,這樣收發(fā)包的內容就會在屏幕上打印出來,方便我們調試,在一定程度上可以省去抓包的工作。
importurllib2
httpHandler=urllib2.HTTPHandler(debuglevel=1)
httpsHandler=urllib2.HTTPSHandler(debuglevel=1)
opener=urllib2.build_opener(httpHandler,httpsHandler)
urllib2.install_opener(opener)
response=urllib2.urlopen('http://www.google.com')