scrapy框架之crawl問題解決

scrapy是一個非常強大的爬蟲框架,現在也是越來越多人用,安裝也是很簡單,由于我是在anaconda環境下裝的,那我就來說明一下該環境的安裝吧.
在anaconda安裝是最簡單不過了,直接conda install scrapy 就可以了,
基本操作命令我就不提了.
在用scrapy crawl 運行項目之后發現不能打印出我想要的結果,也在百度上找了許久,最后發現只需要在settinfs.py文件里將CONCURRENT_REQUESTS = 32的注釋取消掉就可以了.

?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。

推薦閱讀更多精彩內容