在我們用python3爬取一些網站時,獲取網頁url后進行解析,在采用decode('utf-8')解碼時有時候會出現utf-8無法解碼的問題,比如結果會提示:
Unicode Decode Error: 'utf8' codec can't decode byte 0xb2 in position 0: invalid start byte
這是因為有些網站進行了gzip壓縮,最典型的就是sina,進行網頁爬蟲經常出現這個問題,那么為什么要壓縮呢?搜狗百科解釋為:
HTTP協議上的GZIP編碼是一種用來改進WEB應用程序性能的技術。大流量的WEB站點常常使用GZIP壓縮技術來讓用戶感受更快的速度。這一般是指WWW服務器中安裝的一個功能,當有人來訪問這個服務器中的網站時,服務器中的這個功能就將網頁內容壓縮后傳輸到來訪的電腦瀏覽器中顯示出來.一般對純文本內容可壓縮到原大小的40%.這樣傳輸就快了,效果就是你點擊網址后會很快的顯示出來.當然這也會增加服務器的負載*. *一般服務器中都安裝有這個功能模塊的。
我們在打開某個新浪網頁,點擊右鍵選擇“檢查”,然后Network》All》Headers下的“Request Headers”中就會發現這個字樣:
Accept-Encoding:gzip, deflate, sdch
這個問題有的建議:“看一下設置的header是否存在 'Accept-Encoding':' gzip, deflate',這一句話,如果存在,刪除即可解決。”,但是有時候header不存在這個代碼,怎么刪除?如下,我們以打開某個新浪新聞網頁為例:
import BeautifulSoup
url=’http://news.sina.com.cn/c/nd/2017-02-05/doc-ifyafcyw0237672.shtml’req = urllib.request.Request(url)req.add_header('User-Agent', 'Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.22 Safari/537.36 SE 2.X MetaSr 1.0')
page = urllib.request.urlopen(req) # 模仿瀏覽器登錄
txt = page.read().decode('utf-8')
soup = BeautifulSoup(txt, 'lxml')
title =soup.select('#artibodyTitle')[0].text
print(title)```
在run之后仍會出現問題,當把*decode('utf-8')*去掉后得到的頁面是亂碼的。因此,解決的辦法不是如此。
在這里有兩種解決辦法:(1)采用gzip庫解壓網頁再解碼;(2)使用requests庫解析網頁而不是urllib。
(1)的解決辦法為:在“txt = page.read()”頁面讀取之后,再加入下面這個命令:
txt=gzip.decompress(txt).decode('utf-8')
(2)的解決辦法為:
```import requests
import gzip
url="http://news.sina.com.cn/c/nd/2017-02-05/doc-ifyafcyw0237672.shtml"
req = requests.get(url)req.encoding= 'utf-8'```
這是對網頁用設置為‘utf-8’的格式,但是這里模擬瀏覽器登錄需采用這種方式:
headers = { 'Host': 'blog.csdn.net', 'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:43.0) Gecko/20100101 Firefox/43.0', 'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8', 'Accept-Language': 'zh-CN,zh;q=0.8,en-US;q=0.5,en;q=0.3', ….}
綜合以上,我們看一下結果:
***錯誤的方式***
***Gzip******解壓方式***
***Requests******的讀取網頁方式***
