使用Python的Scrapy框架爬取51job職位和分析

一、爬取數據

Python版本是3.6,爬取后保存在MySQL中,版本是5.5。

51job搜索位置的鏈接是【數據分析師招聘,求職】-前程無憂

首先是可以在ide中運行scrapy的文件run.py:

from scrapy.cmdline import execute

execute(['scrapy', 'crawl', 'job51'])

需要爬取并存儲的字段item.py:

import scrapy

class Job51Item(scrapy.Item):

? ? # define the fields for your item here like:

? ? # name = scrapy.Field()

? ? zhiwei = scrapy.Field()

? ? gongsi = scrapy.Field()

? ? didian = scrapy.Field()

? ? xinzi = scrapy.Field()

? ? gongsileixing = scrapy.Field()

? ? guimo = scrapy.Field()

? ? hangye = scrapy.Field()

? ? jingyan = scrapy.Field()

? ? xueli = scrapy.Field()

? ? fuli = scrapy.Field()

? ? zhiweiyaoqiu = scrapy.Field()

? ? lianjie = scrapy.Field()

爬蟲的入口 job51.py:

import re

import scrapy

from bs4 import BeautifulSoup

from items import Job51Item

class Myspider(scrapy.Spider):

? ? name = 'job51'

? ? allowed_domains = ['51job.com']

? ? headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'}

? ? def start_requests(self):

? ? ? ? for i in range(1, 208):

? ? ? ? ? ? url_1 = 'http://search.51job.com/list/000000,000000,0000,00,9,99,%25E6%2595%25B0%25E6%258D%25AE%25E5%2588%2586%25E6%259E%2590%25E5%25B8%2588,2,'

? ? ? ? ? ? url_2 = '.html?lang=c&stype=1&postchannel=0000&workyear=99&cotype=99°reefrom=99&jobterm=99&companysize=99&lonlat=0%2C0&radius=-1&ord_field=0&confirmdate=9&fromType=1&dibiaoid=0&address=&line=&specialarea=00&from=&welfare='

? ? ? ? ? ? url = url_1 + str(i) + url_2

? ? ? ? ? ? yield scrapy.Request(url, headers=self.headers, callback=self.parse)

#獲取每個職位的詳細信息入口url

? ? def parse(self, response):

? ? ? ? soup = BeautifulSoup(response.text, 'lxml')

? ? ? ? tls = soup.find_all('p', class_='t1 ')

? ? ? ? for tl in tls:

? ? ? ? ? ? url = tl.find('a', target='_blank')['href']

? ? ? ? ? ? yield scrapy.Request(url, callback=self.get_content, meta={'url': url})

? ? #用BeautifulSoup爬取詳細頁字段

? ? def get_content(self, response):

? ? ? ? soup = BeautifulSoup(response.text, 'lxml')

? ? ? ? item = Job51Item()

? ? ? ? item['zhiwei'] = soup.find('h1').get_text().replace('\xa0', '')

? ? ? ? item['gongsi'] = soup.find('p', class_='cname').find('a', target='_blank').get_text().replace('\xa0', '')

? ? ? ? item['didian'] = soup.find('span', class_='lname').get_text().replace('\xa0', '')

? ? ? ? item['xinzi'] = soup.find('div', class_='cn').find('strong').get_text().replace('\xa0', '')

? ? ? ? gongsixinxi = soup.find('p', class_='msg ltype').get_text().replace('\t', '').replace('\r', '').replace('\n', '').replace('\xa0', '')

? ? ? ? item['gongsileixing'] = gongsixinxi.split('|')[0]

? ? ? ? item['guimo'] = gongsixinxi.split('|')[1]

? ? ? ? item['hangye'] = gongsixinxi.split('|')[2]

? ? ? ? zhaopinyaoqiu = soup.find('div', class_='t1').get_text().replace('\xa0', '')

? ? ? ? item['jingyan'] = zhaopinyaoqiu.split('\n')[1]

? ? ? ? try:

? ? ? ? ? ? item['xueli'] = re.findall(r'(.*?)', response.text)[0]

? ? ? ? except:

? ? ? ? ? ? item['xueli'] = '無'

? ? ? ? try:

? ? ? ? ? ? item['fuli'] = soup.find('p', class_='t2').get_text().replace('\n', ' ').replace('\xa0', '')

? ? ? ? except:

? ? ? ? ? ? item['fuli'] = '無'

? ? ? ? item['zhiweiyaoqiu'] =

re.findall(r'< div class="bmsg job_msg inbox">(.*?)<div class="mt10">', response.text, re.I|re.S|re.M)[0].replace('\r', '').replace('\n', '').replace('\t', '').replace('\xa0', '').replace('<br>', '').replace('<br/>', '')

? ? ? ? item['lianjie'] = response.meta['url']

? ? ? ? yield item

SQL部分sql.py:

import pymysql.cursors

import settings

MYSQL_HOSTS = settings.MYSQL_HOSTS

MYSQL_USER = settings.MYSQL_USER

MYSQL_PASSWORD = settings.MYSQL_PASSWORD

MYSQL_PORT = settings.MYSQL_PORT

MYSQL_DB = settings.MYSQL_DB

cnx = pymysql.connect(

? ? host=MYSQL_HOSTS,

? ? port=MYSQL_PORT,

? ? user=MYSQL_USER,

? ? passwd=MYSQL_PASSWORD,

? ? db=MYSQL_DB,

? ? charset='gbk')

cur = cnx.cursor()

class Sql:

? ? @classmethod

? ? def insert_job51(cls, zhiwei, gongsi, didian, xinzi, gongsileixing, guimo, hangye, jingyan, xueli, fuli, zhiweiyaoqiu, lianjie):

? ? ? ? sql = 'INSERT INTO job51(zhiwei,gongsi,didian,xinzi,gongsileixing,guimo,hangye,jingyan,xueli,fuli,zhiweiyaoqiu,lianjie) ' \

? ? ? ? ? ? ? 'VALUES(%(zhiwei)s,%(gongsi)s,%(didian)s,%(xinzi)s,%(gongsileixing)s,%(guimo)s,%(hangye)s,%(jingyan)s,%(xueli)s,%(fuli)s,%(zhiweiyaoqiu)s,%(lianjie)s)'

? ? ? ? value = {'zhiwei': zhiwei,

? ? ? ? ? ? ? ? 'gongsi': gongsi,

? ? ? ? ? ? ? ? 'didian': didian,

? ? ? ? ? ? ? ? 'xinzi': xinzi,

? ? ? ? ? ? ? ? 'gongsileixing': gongsileixing,

? ? ? ? ? ? ? ? 'guimo': guimo,

? ? ? ? ? ? ? ? 'hangye': hangye,

? ? ? ? ? ? ? ? 'jingyan': jingyan,

? ? ? ? ? ? ? ? 'xueli': xueli,

? ? ? ? ? ? ? ? 'fuli': fuli,

? ? ? ? ? ? ? ? 'zhiweiyaoqiu': zhiweiyaoqiu,

? ? ? ? ? ? ? ? 'lianjie': lianjie,}

? ? ? ? cur.execute(sql, value)

? ? ? ? cnx.commit()

管道存儲pipelines.py:

from .sql import Sql

from items import Job51Item

class Job51Pipeline(object):

? ? def process_item(self, item, spider):

? ? ? ? ? ? zhiwei = item['zhiwei']

? ? ? ? ? ? gongsi = item['gongsi']

? ? ? ? ? ? didian = item['didian']

? ? ? ? ? ? xinzi = item['xinzi']

? ? ? ? ? ? gongsileixing = item['gongsileixing']

? ? ? ? ? ? guimo = item['guimo']

? ? ? ? ? ? hangye = item['hangye']

? ? ? ? ? ? jingyan = item['jingyan']

? ? ? ? ? ? xueli = item['xueli']

? ? ? ? ? ? fuli = item['fuli']

? ? ? ? ? ? zhiweiyaoqiu = item['zhiweiyaoqiu']

? ? ? ? ? ? lianjie = item['lianjie']

? ? ? ? ? ? Sql.insert_job51(zhiwei, gongsi, didian, xinzi, gongsileixing, guimo, hangye, jingyan, xueli, fuli, zhiweiyaoqiu, lianjie)

? ? ? ? ? ? print('寫入職位信息')

在MySQL中建立新表,包含所有字段:

CREATE TABLE `job51` (

? `id` int(10) NOT NULL AUTO_INCREMENT,

? `zhiwei` varchar(255) DEFAULT NULL,

? `gongsi` varchar(255) DEFAULT NULL,

? `didian` varchar(255) DEFAULT NULL,

? `xinzi` varchar(255) DEFAULT NULL,

? `gongsileixing` varchar(255) DEFAULT NULL,

? `guimo` varchar(255) DEFAULT NULL,

? `hangye` varchar(255) DEFAULT NULL,

? `jingyan` varchar(255) DEFAULT NULL,

? `xueli` varchar(255) DEFAULT NULL,

? `fuli` varchar(255) DEFAULT NULL,

? `zhiweiyaoqiu` text,

? `lianjie` text,

? PRIMARY KEY (`id`)

) ENGINE=InnoDB DEFAULT CHARSET=gbk

配置settings.py:

BOT_NAME = 'job51'

SPIDER_MODULES = ['job51.spiders']

NEWSPIDER_MODULE = 'job51.spiders'

MYSQL_HOSTS = 'localhost'

MYSQL_USER = 'root'

MYSQL_PASSWORD = '123456'

MYSQL_PORT = 3306

MYSQL_DB = 'job51'

ROBOTSTXT_OBEY = True

ITEM_PIPELINES = {

? ? 'job51.pipelines.Job51Pipeline': 300,

}

HTTPCACHE_ENABLED = True

HTTPCACHE_EXPIRATION_SECS = 0

HTTPCACHE_DIR = 'httpcache'

HTTPCACHE_IGNORE_HTTP_CODES = []

HTTPCACHE_STORAGE = 'scrapy.extensions.httpcache.FilesystemCacheStorage'

二、數據清洗和可視化

一共爬取了9705條職位信息,如圖所示。


通過Excel清洗數據后導入Tableau進行可視化分析。

1.民營公司招聘需求占了近2/3,其次是合資公司

2.150-500人規模的公司需求最多,薪資基本隨著公司規模擴大而增加

3.不同行業的數據分析職位平均薪資水平,集中在9-11K之間

4.北上深杭平均薪資10K左右

5.要求為本科的最多,碩士以上很少,要求不限學歷的也很可觀

6.1年經驗的職位薪資略低于應屆生,5年以上經驗的薪資水平上了一個臺階

7.聚類分析


根據職位特征進行聚類分析,大致可以把職位需求分為三種類型:

從薪資上看,其中第一、三類屬于高薪職位,平均薪資能夠達到11K,第三類的薪資水平分布稍穩定;第二類平均薪資僅7K左右。

從規模上看,大型公司提供的待遇更加優渥,全部屬于高薪職位;小型公司和中型公司分別有45.5%、40.2%的職位薪資水平較低。

從經驗要求來看,要求少量經驗的公司最多,但是56.5%的職位薪資不高;而經驗較豐富的職位都屬于高薪。

從學歷要求來看,無學歷要求和專科集中在第二類,而本科和研究生集中在第一、三類,可見在數據分析職位上學歷是比較重要的因素。

8.招聘要求的關鍵詞詞云

三、總結

1、從公司崗位需求來看,北上廣深杭是缺口比較大的地區,民營公司的需求最大,規模越大的公司能開出更高的薪資條件來吸引人才;

2、從薪資水平來看,剛入行薪資在7-8K,2年后能夠達到每2年增加4-5K的發展水平。北上深杭的平均薪資能達到10K,屬于第一梯隊,其次是南京廣州蘇州在8K左右,福州東莞武漢在7K左右,屬于第二梯隊;

3、從求職者角度來看,高薪職位基本在本科及以上學歷中分布,需要掌握的技能包括業務類如分析能力、表達能力以及邏輯能力,工具類如Excel、Python、SPSS、Hadoop等。

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。

推薦閱讀更多精彩內容