認識爬蟲?
一,什么是爬蟲?
網絡爬蟲(又被稱為網頁蜘蛛,網絡機器人,在FOAF社區中間,更經常的稱為網頁追逐者),是一種按照一定的規則,自動地抓取萬維網信息的程序或者腳本。另外一些不常使用的名字還有螞蟻、自動索引、模擬程序或者蠕蟲。其實通俗的講就是通過程序去獲取web頁面上自己想要的數據,也就是自動抓取數據。
二,爬蟲可以做什么?
可以獲取瀏覽器里訪問的,我們需要的一些數據,比如圖片,視頻等等
三,爬蟲的本質
模擬瀏覽器打開網頁,獲取網頁中我們想要的那部分數據,瀏覽器打開網頁的過程,當你在瀏覽器中輸入地址后,經過DNS服務器找到服務器主機,向服務器發送一個請求,服務器經過解析后發送給用戶瀏覽器結果,包括html,js,css等文件內容,瀏覽器解析出來最后呈現給用戶在瀏覽器上看到的結果
所以用戶看到的瀏覽器的結果就是由HTML代碼構成的,我們爬蟲就是為了獲取這些內容,通過分析和過濾html代碼,從中獲取我們想要資源(文本,圖片,視頻.....)