最近想着做一个微信机器人,主要想要实现能够每天定时推送天气预报或励志语录,励志语录要每天有自动更新,定时或当有好友回复时,能够随机推送不同的内容。于是开始了分析思路。博主是采用了多线程群发,因为微信对频繁发送消息过快还会出现发送失败的问题,因此还要加入time.sleep(1),当然时间根据自身情况自己定咯。本想把接入写诗机器人,想想自己的渣电脑于是便放弃了,感兴趣的可以尝试一下。做完会有不少收获希望对你有帮助。
(1)我们要找个每天定时更新天气预报的网站,和一个更新励志语录的网站。当然如果你想更新其他内容,相信高智商的你这些都是小意思啦。博主是随便找了2个网站进行抓取。
第一步:抓取某网站天气预报信息,为我所用,因温度气候和生活指数在两个页面,于是将2个页面的数据抓取并进行整合:
这里抓取第一个页面内容,为温度,风向,日期,随便把第二天天气的也一并抓取了:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
|
def get_content( self , html_str):
html = etree.html(html_str)
weather_ts = html.xpath( "//div[@id='7d']/ul" )
today_w = ''
tomorrow_w = ''
for weather_t in weather_ts:
today_w + = weather_t.xpath( "./li[1]/h1/text()" )[ 0 ] + ' '
today_w + = weather_t.xpath( "./li[1]/p[1]/text()" )[ 0 ] + ' '
today_w + = weather_t.xpath( "./li[1]/p[2]/i/text()" )[ 0 ] + ' '
today_w + = '风向' + weather_t.xpath( "./li[1]/p[3]/i/text()" )[ 0 ]
tomorrow_w + = weather_t.xpath( "./li[2]/h1/text()" )[ 0 ] + ' '
tomorrow_w + = weather_t.xpath( "./li[2]/p[1]/text()" )[ 0 ] + ' '
tomorrow_w + = '风向' + weather_t.xpath( "./li[2]/p[3]/i/text()" )[ 0 ]
all_w = today_w + '--' + tomorrow_w
return all_w
|
这里抓取第二页面内容,包括穿衣指数,紫外线指数:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
|
def get_content1( self , html_str):
html = etree.html(html_str)
living_ins = html.xpath( "//div[@class='livezs']/ul" )
today_living = ''
for living_in in living_ins:
today_living + = living_in.xpath( "./li[1]/span/text()" )[ 0 ]
today_living + = living_in.xpath( "./li[1]/em/text()" )[ 0 ] + ':'
today_living + = living_in.xpath( "./li[1]/p/text()" )[ 0 ] + ' '
today_living + = living_in.xpath( "./li[2]/a/em/text()" )[ 0 ] + ' '
today_living + = living_in.xpath( "./li[2]/a/p/text()" )[ 0 ] + ' '
today_living + = living_in.xpath( "./li[3]/em/text()" )[ 0 ] + ':'
today_living + = living_in.xpath( "./li[3]/p/text()" )[ 0 ] + ' '
today_living + = living_in.xpath( "./li[4]/a/em/text()" )[ 0 ] + ' '
today_living + = living_in.xpath( "./li[4]/a/p/text()" )[ 0 ] + ' '
today_living + = living_in.xpath( "./li[6]/em/text()" )[ 0 ] + ':'
today_living + = living_in.xpath( "./li[6]/p/text()" )[ 0 ]
return today_living
|
第二步:抓取某网经典唯美励志语录,为了每次发送或者回复都有信息感,博主抓取了10个数据,并进行随机返回:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
|
def soul():
url = 'http://www.59xihuan.cn/'
headers = { "user-agent" : "mozilla/5.0 (windows nt 10.0; wow64) applewebkit/537.36 (khtml, like gecko)" }
res = requests.get(url, headers = headers).content
html = etree.html(res)
soul_sen = html.xpath( "//div[@class='mleft']" )
soul_dict = {}
for soul_s in soul_sen:
soul_dict[ 1 ] = soul_s.xpath( './div[1]/div[2]/div[2]/text()' )[ 0 ].strip()
soul_dict[ 2 ] = soul_s.xpath( './div[2]/div[2]/div[2]/text()' )[ 0 ].strip()
soul_dict[ 3 ] = soul_s.xpath( './div[3]/div[2]/div[2]/text()' )[ 0 ].strip()
soul_dict[ 4 ] = soul_s.xpath( './div[4]/div[2]/div[2]/text()' )[ 0 ].strip()
soul_dict[ 5 ] = soul_s.xpath( './div[5]/div[2]/div[2]/text()' )[ 0 ].strip()
soul_dict[ 6 ] = soul_s.xpath( './div[6]/div[2]/div[2]/text()' )[ 0 ].strip()
soul_dict[ 7 ] = soul_s.xpath( './div[7]/div[2]/div[2]/text()' )[ 0 ].strip()
soul_dict[ 8 ] = soul_s.xpath( './div[8]/div[2]/div[2]/text()' )[ 0 ].strip()
soul_dict[ 9 ] = soul_s.xpath( './div[9]/div[2]/div[2]/text()' )[ 0 ].strip()
soul_dict[ 10 ] = soul_s.xpath( './div[10]/div[2]/div[2]/text()' )[ 0 ].strip()
i = random.randint( 1 , 10 )
return soul_dict[i]
|
(2)开始我们的重头戏,博主选择的是wxpy库,需要导入的库如下:
1
2
3
4
5
6
7
8
9
10
11
|
import time
import json
import requests
import datetime
import threading
from queue import queue
import schedule
import wxpy
from weather import weatherspider
from soul import soul
bot = wxpy.bot(cache_path = true)
|
现在先设置定时器,你可以设置多个的啦,博主只设置了早上:
1
2
3
4
5
6
|
def main():
print ( "程序开始运行..." )
schedule.every().day.at( "10:01" ).do(send)
while true:
schedule.run_pending()
time.sleep( 1 )
|
接着,我们先获取抓取内容,微信好友数据,引入创建多线程:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
|
def send():
wea_ls = '早上好,今天又是元气满满的一天\n' + weatherspider( '101271610' ).run() + '您可以:' + '\n回复"成都"获取成都天气\n回复"唯美"随机获取励志唯美语录'
send_queue = queue()
fris = bot.friends().search('') # 这里填空会向所有好友的发送,或者填你想要单独发送的人
for fri in fris:
send_queue.put(fri)
t_list = []
for i in range ( 3 ):
t_msend = threading.thread(target = more_thread, args = (send_queue, wea_ls))
t_list.append(t_msend)
for t in t_list:
t.setdaemon(true) #把子线程设置为守护线程,该线程不重要主线程结束,子线程结束
t.start()
for q in [send_queue]:
q.join() #让主线程等待阻塞,等待队列的任务完成之后再完成
print ( "主线程结束" )
|
然后,开始向好友发送数据:
1
2
3
4
5
6
7
8
9
10
|
def more_thread(send_queue, wea_ls):
while true:
try :
friend = send_queue.get()
friend.send(wea_ls)
print ( "发送成功,a:" ,friend)
except exception as ret:
time.sleep( 1 ) # 如果你发送的好友很多,时间可以设置大一点,防止微信发送频繁,导致发送失败
continue # 这里不建议加continue,依个人微信情况而定吧
send_queue.task_done()
|
这里开始监听消息,并向朋友回送,一定要过滤掉群消息和公众号消息,具体为什么后面告诉你:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
|
@bot .register()
def rcv_message(msg):
sender = str (msg.sender)
if '<mp:' in str (sender) or '<group:' in str (sender): # 这里过滤掉群消息和公众号消息
return
now = datetime.datetime.now().strftime( '%y-%m-%d %h:%m:%s' )
# print(now)
recv_save = ''
rev_save = '发送人:' + sender + " 内容:" + msg.text + ' ' + now
print (rev_save)
with open ( 'wechat.md' , 'a' ) as f: # 这里我们要把朋友发送的消息进行保存,方便查看以免遗漏重要消息
f.write(rev_save)
f.write( '\n' )
if msg.text = = '成都' :
wea_cd = '成都' + weatherspider( '101270101' ).run()
return wea_cd
elif msg.text = = '唯美' :
return soul()
else :
try :
return robot_tuling(msg.text)
except exception as ret:
fri_me = bot.friends().search( 'virtual' )[ 0 ]
fri_me.send( "发送错误,信息:%s" % ret)
return ( "主人不在所以我智商为0了,请尝试下回复(唯美)随机获取励志唯美语句" )
|
下面接入图灵机器人,让实现智能聊天回复:
1
2
3
4
5
6
7
8
9
10
11
12
13
|
def robot_tuling(text):
url = "http://www.tuling123.com/openapi/api"
api_key = "a3c47b29c497e87ab0b6e566f32" # 这里我已经修改,需要自己申请一个咯
payload = {
"key" : api_key,
"info" : text,
}
rec = requests.post(url, data = json.dumps(payload))
result = json.loads(rec.content)
# print(result["text"])
if result[ "text" ] = = "亲爱的,当天请求次数已用完。" :
return "主人不在所以我智商为0了,尝试下回复(唯美)随机获取励志唯美语句"
return result[ "text" ]
|
好了,所有工作完成,看看效果,记得屏蔽了公众号,不然会有下面效果:
总结
以上所述是小编给大家介绍的python微信聊天机器人改进版(定时或触发抓取天气预报、励志语录等,向好友推送),希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对服务器之家网站的支持!
如果你觉得本文对你有帮助,欢迎转载,烦请注明出处,谢谢!原文链接:https://www.cnblogs.com/spiderc/p/10764299.html