前言
上回说到我们如何把拉勾的数据抓取下来的,既然获取了数据,就别放着不动,把它拿出来分析一下,看看这些数据里面都包含了什么信息。
(本次博客源码地址:https://github.com/maxlyu/lagou_analyze )
下面话不多说了,来一起看看详细的介绍吧
一、前期准备
由于上次抓的数据里面包含有 id 这样的信息,我们需要将它去掉,并且查看描述性统计,确认是否存在异常值或者确实值。
1
2
3
4
5
6
7
|
read_file = "analyst.csv"
# 读取文件获得数据
data = pd.read_csv(read_file, encoding = "gbk" )
# 去除数据中无关的列
data = data[:].drop([ 'id' ], axis = 1 )
# 描述性统计
data.describe()
|
结果中的 unique 表示的是在该属性列下面存在的不同值个数,以学历要求为例子,它包含【本科、大专、硕士、不限】这4个不同的值,top 则表示数量最多的值为【本科】,freq 表示出现的频率为 387。由于薪资的 unique 比较多,我们查看一下存在什么值。
1
2
3
|
print (data[ '学历要求' ].unique())
print (data[ '工作经验' ].unique())
print (data[ '薪资' ].unique())
|
二、预处理
从上述两张图可以看到,学历要求和工作经验的值比较少且没有缺失值与异常值,可以直接进行分析;但薪资的分布比较多,总计有75种,为了更好地进行分析,我们要对薪资做一个预处理。根据其分布情况,可以将它分成【5k 以下、5k-10k、10k-20k、20k-30k、30k-40k、40k 以上】,为了更加方便我们分析,取每个薪资范围的中位数,并划分到我们指定的范围内。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
|
# 对薪资进行预处理
def pre_salary(data):
salarys = data[ '薪资' ].values
salary_dic = {}
for salary in salarys:
# 根据'-'进行分割并去掉'k',分别将两端的值转换成整数
min_sa = int (salary.split( '-' )[ 0 ][: - 1 ])
max_sa = int (salary.split( '-' )[ 1 ][: - 1 ])
# 求中位数
median_sa = (min_sa + max_sa) / 2
# 判断其值并划分到指定范围
if median_sa < 5 :
salary_dic[u '5k以下' ] = salary_dic.get(u '5k以下' , 0 ) + 1
elif median_sa > 5 and median_sa < 10 :
salary_dic[u '5k-10k' ] = salary_dic.get(u '5k-10k' , 0 ) + 1
elif median_sa > 10 and median_sa < 20 :
salary_dic[u '10k-20k' ] = salary_dic.get(u '10k-20k' , 0 ) + 1
elif median_sa > 20 and median_sa < 30 :
salary_dic[u '20k-30k' ] = salary_dic.get(u '20k-30k' , 0 ) + 1
elif median_sa > 30 and median_sa < 40 :
salary_dic[u '30k-40k' ] = salary_dic.get(u '30k-40k' , 0 ) + 1
else :
salary_dic[u '40以上' ] = salary_dic.get(u '40以上' , 0 ) + 1
print (salary_dic)
return salary_dic
|
对【薪资】进行预处理之后,还要对【任职要求】的文本进行预处理。因为要做成词云图,需要对文本进行分割并去除掉一些出现频率较多但没有意义的词,我们称之为停用词,所以我们用 jieba 库进行处理。jieba 是一个python实现的分词库,对中文有着很强大的分词能力。
1
2
3
4
5
6
7
8
9
10
11
|
import jieba
def cut_text(text):
stopwords = [ '熟悉' , '技术' , '职位' , '相关' , '工作' , '开发' , '使用' , '能力' ,
'优先' , '描述' , '任职' , '经验' , '经验者' , '具有' , '具备' , '以上' , '善于' ,
'一种' , '以及' , '一定' , '进行' , '能够' , '我们' ]
for stopword in stopwords:
jieba.del_word(stopword)
words = jieba.lcut(text)
content = " " .join(words)
return content
|
预处理完成之后,就可以进行可视化分析了。
三、可视化分析
我们先绘制环状图和柱状图,然后将数据传进去就行了,环状图的代码如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
|
def draw_pie(dic):
labels = []
count = []
for key, value in dic.items():
labels.append(key)
count.append(value)
fig, ax = plt.subplots(figsize = ( 8 , 6 ), subplot_kw = dict (aspect = "equal" ))
# 绘制饼状图,wedgeprops 表示每个扇形的宽度
wedges, texts = ax.pie(count, wedgeprops = dict (width = 0.5 ), startangle = 0 )
# 文本框设置
bbox_props = dict (boxstyle = "square,pad=0.9" , fc = "w" , ec = "k" , lw = 0 )
# 线与箭头设置
kw = dict (xycoords = 'data' , textcoords = 'data' , arrowprops = dict (arrowstyle = "-" ),
bbox = bbox_props, zorder = 0 , va = "center" )
for i, p in enumerate (wedges):
ang = (p.theta2 - p.theta1) / 2. + p.theta1
y = np.sin(np.deg2rad(ang))
x = np.cos(np.deg2rad(ang))
# 设置文本框在扇形的哪一侧
horizontalalignment = { - 1 : "right" , 1 : "left" }[ int (np.sign(x))]
# 用于设置箭头的弯曲程度
connectionstyle = "angle,anglea=0,angleb={}" . format (ang)
kw[ "arrowprops" ].update({ "connectionstyle" : connectionstyle})
# annotate()用于对已绘制的图形做标注,text是注释文本,含 'xy' 的参数跟坐标点有关
text = labels[i] + ": " + str ( '%.2f' % ((count[i]) / sum (count) * 100 )) + "%"
ax.annotate(text, size = 13 , xy = (x, y), xytext = ( 1.35 * np.sign(x), 1.4 * y),
horizontalalignment = horizontalalignment, * * kw)
plt.show()
|
柱状图的代码如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
|
def draw_workyear(data):
workyears = list (data[u '工作经验' ].values)
wy_dic = {}
labels = []
count = []
# 得到工作经验对应的数目并保存到count中
for workyear in workyears:
wy_dic[workyear] = wy_dic.get(workyear, 0 ) + 1
print (wy_dic)
# wy_series = pd.series(wy_dic)
# 分别得到 count 的 key 和 value
for key, value in wy_dic.items():
labels.append(key)
count.append(value)
# 生成 keys 个数的数组
x = np.arange( len (labels)) + 1
# 将 values 转换成数组
y = np.array(count)
fig, axes = plt.subplots(figsize = ( 10 , 8 ))
axes.bar(x, y, color = "#1195d0" )
plt.xticks(x, labels, size = 13 , rotation = 0 )
plt.xlabel(u '工作经验' , fontsize = 15 )
plt.ylabel(u '数量' , fontsize = 15 )
# 根据坐标将数字标在图中,ha、va 为对齐方式
for a, b in zip (x, y):
plt.text(a, b + 1 , '%.0f' % b, ha = 'center' , va = 'bottom' , fontsize = 12 )
plt.show()
|
我们再把学历要求和薪资的数据稍微处理一下变成字典形式,传进绘制好的环状图函数就行了。另外,我们还要对【任职要求】的文本进行可视化。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
|
from wordcloud import wordcloud
# 绘制词云图
def draw_wordcloud(content):
wc = wordcloud(
font_path = 'c:\\windows\fonts\msyh.ttf' ,
background_color = 'white' ,
max_font_size = 150 , # 字体最大值
min_font_size = 24 , # 字体最小值
random_state = 800 , # 随机数
collocations = false, # 避免重复单词
width = 1600 ,height = 1200 ,margin = 35 , # 图像宽高,字间距
)
wc.generate(content)
plt.figure(dpi = 160 ) # 放大或缩小
plt.imshow(wc, interpolation = 'catrom' ,vmax = 1000 )
plt.axis( "off" ) # 隐藏坐标
|
四、成果与总结
python数据分析师的学历大部分要求是本科,占了86%。
从柱状图可以看出,python数据分析师的工作经验绝大部分要求1-5年。
由此可以得出python数据分析的工资为10k-20k的比较多,40以上的也不少,工资高估计要求会比较高,所以我们看一下职位要求。
从词云图可看出,数据分析肯定要对数据比较敏感,并且对统计学、excel、python、数据挖掘、hadoop等也有一定的要求。不仅如此,还要求具有一定的抗压能力、解决问题的能力、良好的表达能力、思维能力等。
总结
以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,谢谢大家对服务器之家的支持。
原文链接:https://www.cnblogs.com/lyuzt/p/10643941.html