windows定时执行百度新闻爬虫

时间:2022-02-08 23:54:08

  想要做个新闻文本识别分类的项目,就先写了个爬取百度新闻的爬虫。

  环境:win7 32 bit python3.4 若干第三方库

  可以实现的功能:定期按照百度新闻的分类抓取新闻的标题,所属类别及文本内容,并自动存入数据库(MySQL),同时发邮件到自己邮箱提醒。

  缺陷:因新闻来源不同,网页编码不同,会出现少量的乱码现象;存入数据库未添加自动去重功能(自己手动去重其实也并不难,所以没去研究这个)

  STEP1: creat_dbtable.py链接数据库创建表(也可直接通过操作MySQL)

# -*- coding: utf-8 -*-
"""
Created on Sun Nov 6 23:31:33 2016 @author: Administrator
""" #数据库创建操作
import MySQLdb #打开数据库链接
db = MySQLdb.Connect(host="localhost",user="root",passwd='你的密码',db="test",use_unicode=True, charset="utf8") cursor = db.cursor() #如果数据已经存在,使用excute()方法删除表
cursor.execute("DROP TABLE IF EXISTS news") #创建数据表 SQL语句
sql = """CREATE TABLE news(
class VARCHAR(10) NOT NULL,
title VARCHAR(100),
text VARCHAR(15000)
)""" cursor.execute(sql) #关闭数据库连接
db.close()

  在MySQL看到表已经生成:

windows定时执行百度新闻爬虫

  step2:为了了解每次的抓取情况,写一个send_email.py来实现发送邮件的功能,这个文件在spider主文件里面来调用。

  NOTE:这个往自己的邮箱发送邮件要在相应邮箱开启服务获取一个password才可以,这个网上教程也比较多,之后有空会补充。

#coding:utf-8
from email.header import Header
from email.mime.text import MIMEText
from email.utils import parseaddr, formataddr
import smtplib def _format_addr(s):
name, addr = parseaddr(s)
return formataddr((Header(name,'utf-8').encode(), addr))
def send_ms(T):
from_addr = "1021550072@qq.com"
password = 'your-password'
to_addr = '1021550072@qq.com'
smtp_server = 'smtp.qq.com'
msg = MIMEText(T, 'plain', 'utf-8')
msg['From'] = _format_addr('Anyone')
msg['To'] = _format_addr('Echo')
msg['Subject'] = Header('The New Report', 'utf-8').encode()
server = smtplib.SMTP_SSL(smtp_server, 465, timeout=10)
server.set_debuglevel(0)
server.login(from_addr,password)
server.sendmail(from_addr, [to_addr], msg.as_string())
server.quit() # send_ms(T)

  step3:创建spider.py文件,实现具体功能。

# -*- coding: utf-8 -*-
"""
Created on Sun Nov 6 21:24:27 2016 @author: Administrator
""" import re
import time
import requests
import numpy as np
import send_email
from bs4 import BeautifulSoup
from collections import Counter
import MySQLdb start = time.time()
#打开数据库链接 db = MySQLdb.Connect(host="localhost",user="root",passwd='password',db="test",use_unicode=True, charset="utf8") cursor = db.cursor() headers = {'User-Agent':"Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.143 Safari/537.36"} # 获取首页数据head_data
def get_head_data():
head_url = 'http://internet.baidu.com/'
data = requests.get(head_url,headers=headers)
data.encoding = 'gbk'
# print(data.status_code)
head_data = data.text
return head_data # 获取各新闻分类的title及href
def get_class(head_data):
title_href = {}
pa = re.compile(r'<a href="(http.*?.com/).*?>.*?(\w+)</a></li>')
ma = re.findall(pa,head_data)[1:-7]
ma = list(set(ma))[:-1]
# print(len(ma))
for i in range(len(ma)):
key = ma[i][1]
value = ma[i][0]
title_href[key] = value
# print(title_href)
return title_href # 对于每个分类提取标题信息class_data
def get_class_data(class_url): class_data = requests.get(class_url, headers=headers)
pa = re.compile(r'charset=(.*?)">')
charset = re.findall(pa,class_data.text)[0]
class_data.encoding = charset
# class_data.encoding = 'gbk'
class_data =class_data.text
soup = BeautifulSoup(class_data, 'lxml')
data = soup.findAll('a',{'target':'_blank'})
class_data = {}
for i in range(len(data)):
title = data[i].get_text()
href = data[i].get('href')
if len(title) > 10:
if not '下载' in title:
class_data[title] = href
return class_data # 获取每条新闻的具体文本内容,粗略抓取
def get_news_text(href):
try:
data = requests.get(href,headers=headers)
# data.encoding = 'gbk'
pa = re.compile(r'charset=(.*?)">')
charset = re.findall(pa,data.text)[0]
data.encoding = charset
data = BeautifulSoup(data.text,'lxml').get_text()
text = re.sub("[A-Za-z0-9\[\`\~\!\@\#\$\ \^\"\-\+\_\\&\\n\\t\*\(\)\=\|\{\}\'\:\;\'\,\[\]\.\<\>\/\?\~\!\@\#\\\&\*\%]", "", data)
except:
# print('get New Text fail...')
text = None
pass
return text head_data = get_head_data()
title_href = get_class(head_data)
count = 0
for class_title,class_href in dict(title_href).items():
print(class_title)
# try:
class_data = get_class_data(class_href)
# except:
# print('get Class data fail...')
# pass
for news_title, news_url in class_data.items():
# print(news_title)
text = get_news_text(news_url)
sql = """INSERT INTO news\
SET class=%s, title=%s, text=%s"""
try:
cursor.execute(sql,(class_title,news_title,text))
db.commit()
count += 1
except:
# print('Save fail...')
pass db.close() end = time.time()
total_time = end - start T1 = '本次抓取耗时%s'%str(total_time)
T2 = ' & 本次共抓取%s条新闻'%str(count)
T = T1+T2
# print(t1,t2) send_email.send_ms(T)

  数据库存储情况:

windows定时执行百度新闻爬虫

  邮件详情:

windows定时执行百度新闻爬虫

  REMARK:关于windows定时任务,请参考这篇教程

  这是我自己计划任务的设置和运行情况

windows定时执行百度新闻爬虫

windows定时执行百度新闻爬虫

windows定时执行百度新闻爬虫的更多相关文章

  1. windows定时执行python脚本

    from:http://blog.csdn.net/Gpwner/article/details/77882131

  2. Windows自动执行应用程序或脚本&lpar;可以通过写bat文件定时关机等&rpar;

    1. Windows每天定时执行某个应用程序 1.1 右键我的电脑选择管理,并选择任务计划程序,如下 演示 --- 1.2 创建基本任务 演示 1.3 Windows每天定时关机设置参数 演示 1. ...

  3. 基于HttpClient实现网络爬虫~以百度新闻为例

    转载请注明出处:http://blog.csdn.net/xiaojimanman/article/details/40891791 基于HttpClient4.5实现网络爬虫请訪问这里:http:/ ...

  4. 使用ASP&period;NET实现Windows Service定时执行任务

    转载http://blog.csdn.net/yanghua_kobe/article/details/6937816 我们怎样才能在服务器上使用asp.net定时执行任务而不需要安装windows ...

  5. &period;net 开发定时执行的windows服务

    环境:win7+vs2010+Oracle11g+office2010(64位操作系统) 需求:开发定时执行的windows服务从数据库中查询数据下载到指定地址Excel中 一.添加新建项目——win ...

  6. Windows定时计划执行Python

    先看下定时执行的py文件 #coding:gbk from selenium import webdriver import time,os driver = webdriver.PhantomJS( ...

  7. C&num; 编写windows服务及服务的安装、启动、删除、定时执行任务

    一.编写windows服务 1.VS2017  - 创建服务Myservice 2.创建好项目之后 --- >> 双击 Service1.cs  ---- >>  出现一个设计 ...

  8. Windows Server 2008中使用计划任务定时执行BAT bat进行PHP脚本的执行

    Windows Server 2008中使用计划任务定时执行BAT bat进行PHP脚本的执行 2016年01月03日 17:36:00 持之以恒 阅读数:5520 标签: windows定时任务.b ...

  9. 第三百三十四节,web爬虫讲解2—Scrapy框架爬虫—Scrapy爬取百度新闻,爬取Ajax动态生成的信息

    第三百三十四节,web爬虫讲解2—Scrapy框架爬虫—Scrapy爬取百度新闻,爬取Ajax动态生成的信息 crapy爬取百度新闻,爬取Ajax动态生成的信息,抓取百度新闻首页的新闻rul地址 有多 ...

随机推荐

  1. Oracle11gR2用EXP导出时报EXP-00011错误的解决

    C:\>exp businessdata/businessdata file=dropcol.dmp tables=ACSTRULE,ARREARSCFG,ARREARS_REPORT_ACCT ...

  2. envi中多波段图层叠加layer stacking

    Basic Tools——layer stacking 选择投影和输出的文件 波段1-7波段图层都叠加在一个文件中了

  3. iOS开发中常用的分类方法---UIImage&plus;Category

    在开发中使用分类对原有的系统类进行方法扩展,是增强系统原有类功能的常见做法. /** * *拉伸一张图片 * * @param name 图片名字 * @param left 左边开始位置比例 值范 ...

  4. 武道释义 &amp&semi;&num;183&semi; 零散

    若是你防御你的左边.你的右边必定是弱点: 若是你防御你的前面,你的后面必定是弱点. 若是你处处小心防御,则必定处处都是弱点." 有些武术尽管先声夺人.但却如喝渗水之酒,令人越瞧越觉无味: 但 ...

  5. 【Spring】JDBC事务管理XML配置

    将spring事务管理与spirng-mybatis分离开了: <?xml version="1.0" encoding="UTF-8"?> &lt ...

  6. Nginx反向代理tomcat返回400 bad request

    Nginx反向代理tomcat返回400 bad request nginx 版本1.12, tomcat版本 9.06 最近用Nginx做反向代理tomcat,实现前后端分离,nginx 将请求代理 ...

  7. 20155207 EXP8 Web基础

    20155207 EXP8 Web基础 实验内容 (1)Web前端HTML (2)Web前端javascipt (3)Web后端:MySQL基础:正常安装.启动MySQL,建库.创建用户.修改密码.建 ...

  8. ld&colon; -pie can only be used when targeting iOS 4&period;2 or later

    ld: -pie can only be used when targeting iOS 4.2 or later clang: error: linker command failed with e ...

  9. 爬取51job职位信息之编码问题

    兴趣来潮,爬了下51job,但是遇到编码问题!以下是简单的一段代码 获取整个页面数据 # -*- coding:utf-8 -*- import requests import sysreload(s ...

  10. 20155304田宜楠-第三次作业:虚拟机的安装与Linux学习

    安装VirtualBox虚拟机 安装VirtualBox虚拟机 这一步很简单,参考老师给的教程一步步安装,很快就完成了. 2.安装Ubuntu 这一步可是让我吃尽了苦头,我按照老师给的下载地址成功下载 ...