#python 3.5 from urllib.request import urlopen from urllib.request import urlretrieve from bs4 import BeautifulSoup import pymysql conn = pymysql.connect(host='127.0.0.1',user='root',passwd='root',db='pmdb',charset='utf8') cur = conn.cursor()
url = "http://www.mm131.com/xinggan/" html = urlopen(url) soup = BeautifulSoup(html,"lxml") urllist = soup.find(class_='list-left public-box') for i in urllist: jlist = soup.find("dd").find("a")["href"] jliststr='\''+jlist+'\'' # print(jlist) cur.execute("insert into href(href) VALUES ("+jliststr+")") conn.commit() cur.close() conn.close() print("成功!")
相关文章
- 利用ajax获取网页表单数据,并存储到数据库之二(使用SSH)
- Python开发爬虫之BeautifulSoup解析网页篇:爬取安居客网站上北京二手房数据
- 猫眼电影爬取(二):requests+beautifulsoup,并将数据存储到mysql数据库
- 吴裕雄--天生自然PYTHON爬虫:安装配置MongoDBy和爬取天气数据并清洗保存到MongoDB中
- python爬虫学习(2)__抓取糗百段子,与存入mysql数据库
- python网络爬虫抓取动态网页并将数据存入数据库MySQL
- python爬虫之抓取网页中的图片到本地
- Python3实现的爬虫爬取数据并存入mysql数据库操作示例
- Python爬取腾讯疫情实时数据并存储到mysql数据库的示例代码
- Python3爬虫学习之MySQL数据库存储爬取的信息详解