一、爬取數據
Python版本是3.6,爬取后保存在MySQL中,版本是5.5。
51job搜索位置的鏈接是【數據分析師招聘,求職】-前程無憂
首先是可以在ide中運行scrapy的文件run.py:
from scrapy.cmdline import execute
execute(['scrapy', 'crawl', 'job51'])
需要爬取并存儲的字段item.py:
import scrapy
class Job51Item(scrapy.Item):
? ? # define the fields for your item here like:
? ? # name = scrapy.Field()
? ? zhiwei = scrapy.Field()
? ? gongsi = scrapy.Field()
? ? didian = scrapy.Field()
? ? xinzi = scrapy.Field()
? ? gongsileixing = scrapy.Field()
? ? guimo = scrapy.Field()
? ? hangye = scrapy.Field()
? ? jingyan = scrapy.Field()
? ? xueli = scrapy.Field()
? ? fuli = scrapy.Field()
? ? zhiweiyaoqiu = scrapy.Field()
? ? lianjie = scrapy.Field()
爬蟲的入口 job51.py:
import re
import scrapy
from bs4 import BeautifulSoup
from items import Job51Item
class Myspider(scrapy.Spider):
? ? name = 'job51'
? ? allowed_domains = ['51job.com']
? ? headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'}
? ? def start_requests(self):
? ? ? ? for i in range(1, 208):
? ? ? ? ? ? url_1 = 'http://search.51job.com/list/000000,000000,0000,00,9,99,%25E6%2595%25B0%25E6%258D%25AE%25E5%2588%2586%25E6%259E%2590%25E5%25B8%2588,2,'
? ? ? ? ? ? url_2 = '.html?lang=c&stype=1&postchannel=0000&workyear=99&cotype=99°reefrom=99&jobterm=99&companysize=99&lonlat=0%2C0&radius=-1&ord_field=0&confirmdate=9&fromType=1&dibiaoid=0&address=&line=&specialarea=00&from=&welfare='
? ? ? ? ? ? url = url_1 + str(i) + url_2
? ? ? ? ? ? yield scrapy.Request(url, headers=self.headers, callback=self.parse)
#獲取每個職位的詳細信息入口url
? ? def parse(self, response):
? ? ? ? soup = BeautifulSoup(response.text, 'lxml')
? ? ? ? tls = soup.find_all('p', class_='t1 ')
? ? ? ? for tl in tls:
? ? ? ? ? ? url = tl.find('a', target='_blank')['href']
? ? ? ? ? ? yield scrapy.Request(url, callback=self.get_content, meta={'url': url})
? ? #用BeautifulSoup爬取詳細頁字段
? ? def get_content(self, response):
? ? ? ? soup = BeautifulSoup(response.text, 'lxml')
? ? ? ? item = Job51Item()
? ? ? ? item['zhiwei'] = soup.find('h1').get_text().replace('\xa0', '')
? ? ? ? item['gongsi'] = soup.find('p', class_='cname').find('a', target='_blank').get_text().replace('\xa0', '')
? ? ? ? item['didian'] = soup.find('span', class_='lname').get_text().replace('\xa0', '')
? ? ? ? item['xinzi'] = soup.find('div', class_='cn').find('strong').get_text().replace('\xa0', '')
? ? ? ? gongsixinxi = soup.find('p', class_='msg ltype').get_text().replace('\t', '').replace('\r', '').replace('\n', '').replace('\xa0', '')
? ? ? ? item['gongsileixing'] = gongsixinxi.split('|')[0]
? ? ? ? item['guimo'] = gongsixinxi.split('|')[1]
? ? ? ? item['hangye'] = gongsixinxi.split('|')[2]
? ? ? ? zhaopinyaoqiu = soup.find('div', class_='t1').get_text().replace('\xa0', '')
? ? ? ? item['jingyan'] = zhaopinyaoqiu.split('\n')[1]
? ? ? ? try:
? ? ? ? ? ? item['xueli'] = re.findall(r'(.*?)', response.text)[0]
? ? ? ? except:
? ? ? ? ? ? item['xueli'] = '無'
? ? ? ? try:
? ? ? ? ? ? item['fuli'] = soup.find('p', class_='t2').get_text().replace('\n', ' ').replace('\xa0', '')
? ? ? ? except:
? ? ? ? ? ? item['fuli'] = '無'
? ? ? ? item['zhiweiyaoqiu'] =
re.findall(r'< div class="bmsg job_msg inbox">(.*?)<div class="mt10">', response.text, re.I|re.S|re.M)[0].replace('\r', '').replace('\n', '').replace('\t', '').replace('\xa0', '').replace('<br>', '').replace('<br/>', '')
? ? ? ? item['lianjie'] = response.meta['url']
? ? ? ? yield item
SQL部分sql.py:
import pymysql.cursors
import settings
MYSQL_HOSTS = settings.MYSQL_HOSTS
MYSQL_USER = settings.MYSQL_USER
MYSQL_PASSWORD = settings.MYSQL_PASSWORD
MYSQL_PORT = settings.MYSQL_PORT
MYSQL_DB = settings.MYSQL_DB
cnx = pymysql.connect(
? ? host=MYSQL_HOSTS,
? ? port=MYSQL_PORT,
? ? user=MYSQL_USER,
? ? passwd=MYSQL_PASSWORD,
? ? db=MYSQL_DB,
? ? charset='gbk')
cur = cnx.cursor()
class Sql:
? ? @classmethod
? ? def insert_job51(cls, zhiwei, gongsi, didian, xinzi, gongsileixing, guimo, hangye, jingyan, xueli, fuli, zhiweiyaoqiu, lianjie):
? ? ? ? sql = 'INSERT INTO job51(zhiwei,gongsi,didian,xinzi,gongsileixing,guimo,hangye,jingyan,xueli,fuli,zhiweiyaoqiu,lianjie) ' \
? ? ? ? ? ? ? 'VALUES(%(zhiwei)s,%(gongsi)s,%(didian)s,%(xinzi)s,%(gongsileixing)s,%(guimo)s,%(hangye)s,%(jingyan)s,%(xueli)s,%(fuli)s,%(zhiweiyaoqiu)s,%(lianjie)s)'
? ? ? ? value = {'zhiwei': zhiwei,
? ? ? ? ? ? ? ? 'gongsi': gongsi,
? ? ? ? ? ? ? ? 'didian': didian,
? ? ? ? ? ? ? ? 'xinzi': xinzi,
? ? ? ? ? ? ? ? 'gongsileixing': gongsileixing,
? ? ? ? ? ? ? ? 'guimo': guimo,
? ? ? ? ? ? ? ? 'hangye': hangye,
? ? ? ? ? ? ? ? 'jingyan': jingyan,
? ? ? ? ? ? ? ? 'xueli': xueli,
? ? ? ? ? ? ? ? 'fuli': fuli,
? ? ? ? ? ? ? ? 'zhiweiyaoqiu': zhiweiyaoqiu,
? ? ? ? ? ? ? ? 'lianjie': lianjie,}
? ? ? ? cur.execute(sql, value)
? ? ? ? cnx.commit()
管道存儲pipelines.py:
from .sql import Sql
from items import Job51Item
class Job51Pipeline(object):
? ? def process_item(self, item, spider):
? ? ? ? ? ? zhiwei = item['zhiwei']
? ? ? ? ? ? gongsi = item['gongsi']
? ? ? ? ? ? didian = item['didian']
? ? ? ? ? ? xinzi = item['xinzi']
? ? ? ? ? ? gongsileixing = item['gongsileixing']
? ? ? ? ? ? guimo = item['guimo']
? ? ? ? ? ? hangye = item['hangye']
? ? ? ? ? ? jingyan = item['jingyan']
? ? ? ? ? ? xueli = item['xueli']
? ? ? ? ? ? fuli = item['fuli']
? ? ? ? ? ? zhiweiyaoqiu = item['zhiweiyaoqiu']
? ? ? ? ? ? lianjie = item['lianjie']
? ? ? ? ? ? Sql.insert_job51(zhiwei, gongsi, didian, xinzi, gongsileixing, guimo, hangye, jingyan, xueli, fuli, zhiweiyaoqiu, lianjie)
? ? ? ? ? ? print('寫入職位信息')
在MySQL中建立新表,包含所有字段:
CREATE TABLE `job51` (
? `id` int(10) NOT NULL AUTO_INCREMENT,
? `zhiwei` varchar(255) DEFAULT NULL,
? `gongsi` varchar(255) DEFAULT NULL,
? `didian` varchar(255) DEFAULT NULL,
? `xinzi` varchar(255) DEFAULT NULL,
? `gongsileixing` varchar(255) DEFAULT NULL,
? `guimo` varchar(255) DEFAULT NULL,
? `hangye` varchar(255) DEFAULT NULL,
? `jingyan` varchar(255) DEFAULT NULL,
? `xueli` varchar(255) DEFAULT NULL,
? `fuli` varchar(255) DEFAULT NULL,
? `zhiweiyaoqiu` text,
? `lianjie` text,
? PRIMARY KEY (`id`)
) ENGINE=InnoDB DEFAULT CHARSET=gbk
配置settings.py:
BOT_NAME = 'job51'
SPIDER_MODULES = ['job51.spiders']
NEWSPIDER_MODULE = 'job51.spiders'
MYSQL_HOSTS = 'localhost'
MYSQL_USER = 'root'
MYSQL_PASSWORD = '123456'
MYSQL_PORT = 3306
MYSQL_DB = 'job51'
ROBOTSTXT_OBEY = True
ITEM_PIPELINES = {
? ? 'job51.pipelines.Job51Pipeline': 300,
}
HTTPCACHE_ENABLED = True
HTTPCACHE_EXPIRATION_SECS = 0
HTTPCACHE_DIR = 'httpcache'
HTTPCACHE_IGNORE_HTTP_CODES = []
HTTPCACHE_STORAGE = 'scrapy.extensions.httpcache.FilesystemCacheStorage'
二、數據清洗和可視化
一共爬取了9705條職位信息,如圖所示。
通過Excel清洗數據后導入Tableau進行可視化分析。
1.民營公司招聘需求占了近2/3,其次是合資公司
2.150-500人規模的公司需求最多,薪資基本隨著公司規模擴大而增加
3.不同行業的數據分析職位平均薪資水平,集中在9-11K之間
4.北上深杭平均薪資10K左右
5.要求為本科的最多,碩士以上很少,要求不限學歷的也很可觀
6.1年經驗的職位薪資略低于應屆生,5年以上經驗的薪資水平上了一個臺階
7.聚類分析
根據職位特征進行聚類分析,大致可以把職位需求分為三種類型:
從薪資上看,其中第一、三類屬于高薪職位,平均薪資能夠達到11K,第三類的薪資水平分布稍穩定;第二類平均薪資僅7K左右。
從規模上看,大型公司提供的待遇更加優渥,全部屬于高薪職位;小型公司和中型公司分別有45.5%、40.2%的職位薪資水平較低。
從經驗要求來看,要求少量經驗的公司最多,但是56.5%的職位薪資不高;而經驗較豐富的職位都屬于高薪。
從學歷要求來看,無學歷要求和專科集中在第二類,而本科和研究生集中在第一、三類,可見在數據分析職位上學歷是比較重要的因素。
8.招聘要求的關鍵詞詞云
三、總結
1、從公司崗位需求來看,北上廣深杭是缺口比較大的地區,民營公司的需求最大,規模越大的公司能開出更高的薪資條件來吸引人才;
2、從薪資水平來看,剛入行薪資在7-8K,2年后能夠達到每2年增加4-5K的發展水平。北上深杭的平均薪資能達到10K,屬于第一梯隊,其次是南京廣州蘇州在8K左右,福州東莞武漢在7K左右,屬于第二梯隊;
3、從求職者角度來看,高薪職位基本在本科及以上學歷中分布,需要掌握的技能包括業務類如分析能力、表達能力以及邏輯能力,工具類如Excel、Python、SPSS、Hadoop等。