这几天考了大大小小几门课,教务系统又没有成绩通知功能,为了急切想知道自己挂了多少门,于是我写下这个脚本。
设计思路:
设计思路很简单,首先对已有的成绩进行处理,变为list集合,然后定时爬取教务系统查成绩的页面,对爬取的成绩也处理成list集合,如果newList的长度增加了,就找出增加的部分,并通过邮件通知我。
脚本运行效果:
服务器:
发送邮件通知:
代码如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
|
import datetime
import time
from email.header import Header
import requests
import re
import smtplib
from email.mime.text import MIMEText
from bs4 import BeautifulSoup
def listener():
#在这里我通过模拟登陆的方式登陆
#一般来说这里填写的是username跟password
#但我们学校后台将用户名和密码进行了加密
#通过观察浏览器的请求数据跟页面源码猜出学校后台的加密方式
data = {
#出于学校安全考虑,这里就不给出加密方式了
'encoded' : 'xxxxxxxxxxxxxxxxxxx'
}
session = requests.Session()
session.post( 'http://jwc.sgu.edu.cn/jsxsd/xk/LoginToXk' ,data = data)
#请求2019-2020-1学期的所有成绩
r_data = {
'kksj' : '2019-2020-1' ,
'kcxz' : '',
'kcmc' : '',
'xsfs' : 'all'
}
r = session.post( 'http://jwc.sgu.edu.cn/jsxsd/kscj/cjcx_list' , data = r_data)
#对爬回来数据进行封装
soup = BeautifulSoup(r.text, 'html.parser' )
#返回已有的成绩列表
oldList = toList(soup)
max = len (oldList)
#这里用死循环定时爬取成绩页面分析是否分布新成绩
while ( True ):
#post跟get方式不能乱用,不然数据会出错
r = session.post( 'http://jwc.sgu.edu.cn/jsxsd/kscj/cjcx_list' ,data = r_data)
soup = BeautifulSoup(r.text, 'lxml' )
#print(soup.prettify())
length = len (soup.find_all(string = re. compile ( '2019-2020-1' ))) - 1
print ( "course_length: " ,length)
if (r.status_code = = 200 and length ! = 0 ):
if (length > max ):
#查询新出的成绩列表
newlist = toList(soup)
#获取两个列表不同之处,不同的就是新成绩
diflist = compareTwoList(oldList, newlist)
oldList = newlist
if diflist = = '':
send( "unkowned Error" , "unkowned Error" )
else :
#有新成绩了,发送邮件通知我
send( 'you have new course sorce!!' , diflist)
max = length
print ( 'last running time was:' ,datetime.datetime.now())
#定时作用,500s查一次
time.sleep( 500 )
else :
# 发送邮件断开连接了 print("had disconnected...")
send( "your server is disconnected!!!" , "your server is disconnected!!!" )
break
def send(title,msg):
mail_host = 'smtp.qq.com'
# 你的qq邮箱名,没有.com
mail_user = '你的qq邮箱名,没有.com'
# 密码(部分邮箱为授权码)
mail_pass = '授权码'
# 邮件发送方邮箱地址
sender = '发送方邮箱地址'
# 邮件接受方邮箱地址,注意需要[]包裹,这意味着你可以写多个邮件地址群发
receivers = [ 'yoletpig@qq.com' ]
# 设置email信息
# 邮件内容设置
message = MIMEText(msg, 'plain' , 'utf-8' )
# 邮件主题
message[ 'Subject' ] = Header(title, 'utf-8' )
# 发送方信息
message[ 'From' ] = sender
# 接受方信息
message[ 'To' ] = receivers[ 0 ]
# 登录并发送邮件
try :
# smtpObj = smtplib.SMTP()
# # 连接到服务器
# smtpObj.connect(mail_host, 25)
smtpObj = smtplib.SMTP_SSL(mail_host)
# 登录到服务器
smtpObj.login(mail_user, mail_pass)
# 发送
smtpObj.sendmail(
sender,receivers,message.as_string())
# 退出
smtpObj.quit()
print ( 'success' )
except smtplib.SMTPException as e:
print ( 'error' , e) # 打印错误
def toList(soup):
flag = True
list = []
strs = ''
#对tr标签下的td进行遍历并取值
for tr in soup.find_all( 'tr' ):
if flag:
flag = False ;
continue
i = 1
for td in tr.stripped_strings:
if (i = = 1 or i = = 2 ):
i + = 1
continue
strs + = "_" + td
i + = 1
list .append(strs)
strs = ''
return list
def compareTwoList(oldList,newList):
diflist = ''
for sub in newList:
#判断是否唯一
if (oldList.count(sub) = = 0 ):
diflist = sub
break
return diflist
if __name__ = = '__main__' :
listener()
|
这个脚本不出意外的话要运行到我所有成绩出来为止,但我电脑肯定不会这么多天不关机呀,于是我就将这个脚本放到服务器上运行,如何在ubuntu下运行python文件,大家可以看一下我的另一篇文章:
yoletPig的博客:Ubuntu下运行python文件
总结
以上所述是小编给大家介绍的python爬虫爬取监控教务系统的思路详解,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对服务器之家网站的支持!
如果你觉得本文对你有帮助,欢迎转载,烦请注明出处,谢谢!
原文链接:https://blog.csdn.net/qq_42840203/article/details/103846093