Python爬虫-爬取京东商品信息-按给定关键词

时间:2022-08-27 17:24:39

目的:按给定关键词爬取京东商品信息,并保存至mongodb。

字段:title、url、store、store_url、item_id、price、comments_count、comments

工具:requests、lxml、pymongo、concurrent

分析:

1.  https://search.jd.com/Search?keyword=耳机&enc=utf-8&qrst=1&rt=1&stop=1&vt=2&wq=er%27ji&page=1&s=56&click=0,这是京东搜索耳机的跳转url,其中关键参数为:

 keyword:关键词

 enc:字符串编码

 page:页码,需要注意的是,这里的数值均为奇数

 所以简化后的 url 为 https://search.jd.com/Search?keyword=耳机&enc=utf-8&page=1

2.  分析各字段的 xpath,发现在搜索页面只能匹配到 title、url、store、store_url、item_id、price。至于 comments_count、comments 需要单独发出请求。

3.  打开某一商品详情页,点击商品评价,打开开发者工具。点击评论区的下一页,发现在新的请求中,除去响应为媒体格式外,仅多出一个 js 响应,故猜测评论内容包含其中。

4.  分析上述请求的 url,简化后为 https://sclub.jd.com/comment/productPageComments.action?productId=100004325476&score=0&sortType=5&page=0&pageSize=10,其中:

 productId:商品的Id,可简单的从详情页的 url 中获取

 page:评论页码

5.  由以上可以得出,我们需要先从搜索页面中获取的商品 id,通过 id 信息再去获取评论信息。爬取评论时需要注意,服务器会判断请求头中的 Referer,即只有通过商品详情页访问才能得到评论,所以我们每次都根据 item_id 构造请求头。

6.  先将基础信息插入至数据库,在得到评论信息后,根据索引 item_id 将其补充完整。

代码:

 import requests
from lxml import etree
import pymongo
from concurrent import futures class CrawlDog:
def __init__(self, keyword):
"""
初始化
:param keyword: 搜索的关键词
"""
self.keyword = keyword
self.mongo_client = pymongo.MongoClient(host='localhost')
self.mongo_collection = self.mongo_client['spiders']['jd']
self.mongo_collection.create_index([('item_id', pymongo.ASCENDING)]) def get_index(self, page):
"""
从搜索页获取相应信息并存入数据库
:param page: 搜索页的页码
:return: 商品的id
"""
url = 'https://search.jd.com/Search?keyword=%s&enc=utf-8&page=%d' % (self.keyword, page)
index_headers = {
'accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8,'
'application/signed-exchange;v=b3',
'accept-encoding': 'gzip, deflate, br',
'Accept-Charset': 'utf-8',
'accept-language': 'zh,en-US;q=0.9,en;q=0.8,zh-TW;q=0.7,zh-CN;q=0.6',
'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) '
'Chrome/74.0.3729.169 Safari/537.36'
}
rsp = requests.get(url=url, headers=index_headers).content.decode()
rsp = etree.HTML(rsp)
items = rsp.xpath('//li[contains(@class, "gl-item")]')
for item in items:
try:
info = dict()
info['title'] = ''.join(item.xpath('.//div[@class="p-name p-name-type-2"]//em//text()'))
info['url'] = 'https:' + item.xpath('.//div[@class="p-name p-name-type-2"]/a/@href')[0]
info['store'] = item.xpath('.//div[@class="p-shop"]/span/a/text()')[0]
info['store_url'] = 'https' + item.xpath('.//div[@class="p-shop"]/span/a/@href')[0]
info['item_id'] = info.get('url').split('/')[-1][:-5]
info['price'] = item.xpath('.//div[@class="p-price"]//i/text()')[0]
info['comments'] = []
self.mongo_collection.insert_one(info)
yield info['item_id']
# 实际爬取过程中有一些广告, 其中的一些上述字段为空
except IndexError:
print('item信息不全, drop!')
continue def get_comment(self, params):
"""
获取对应商品id的评论
:param params: 字典形式, 其中item_id为商品id, page为评论页码
:return:
"""
url = 'https://sclub.jd.com/comment/productPageComments.action?productId=%s&score=0&sortType=5&page=%d&' \
'pageSize=10' % (params['item_id'], params['page'])
comment_headers = {
'Referer': 'https://item.jd.com/%s.html' % params['item_id'],
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) '
'Chrome/74.0.3729.169 Safari/537.36'
}
rsp = requests.get(url=url, headers=comment_headers).json()
comments_count = rsp.get('productCommentSummary').get('commentCountStr')
comments = rsp.get('comments')
comments = [comment.get('content') for comment in comments]
self.mongo_collection.update_one(
# 定位至相应数据
{'item_id': params['item_id']},
{
'$set': {'comments_count': comments_count}, # 添加comments_count字段
'$addToSet': {'comments': {'$each': comments}} # 将comments中的每一项添加至comments字段中
}, True) def main(self, index_pn, comment_pn):
"""
实现爬取的函数
:param index_pn: 爬取搜索页的页码总数
:param comment_pn: 爬取评论页的页码总数
:return:
"""
# 爬取搜索页函数的参数列表
il = [i * 2 + 1 for i in range(index_pn)]
# 创建一定数量的线程执行爬取
with futures.ThreadPoolExecutor(15) as executor:
res = executor.map(self.get_index, il)
for item_ids in res:
# 爬取评论页函数的参数列表
cl = [{'item_id': item_id, 'page': page} for item_id in item_ids for page in range(comment_pn)]
with futures.ThreadPoolExecutor(15) as executor:
executor.map(self.get_comment, cl) if __name__ == '__main__':
# 测试, 只爬取两页搜索页与两页评论
test = CrawlDog('耳机')
test.main(2, 2)

总结:爬取的过程中可能会被封 IP,测试时评论页面的获取被*,使用代理可以解决该问题,后面会来主要说一下代理的使用。

Python爬虫-爬取京东商品信息-按给定关键词的更多相关文章

  1. Java爬虫爬取京东商品信息

    以下内容转载于<https://www.cnblogs.com/zhuangbiing/p/9194994.html>,在此仅供学习借鉴只用. Maven地址 <dependency ...

  2. selenium&plus;phantomjs爬取京东商品信息

    selenium+phantomjs爬取京东商品信息 今天自己实战写了个爬取京东商品信息,和上一篇的思路一样,附上链接:https://www.cnblogs.com/cany/p/10897618. ...

  3. python制作爬虫爬取京东商品评论教程

    作者:蓝鲸 类型:转载 本文是继前2篇Python爬虫系列文章的后续篇,给大家介绍的是如何使用Python爬取京东商品评论信息的方法,并根据数据绘制成各种统计图表,非常的细致,有需要的小伙伴可以参考下 ...

  4. python爬虫爬取京东、淘宝、苏宁上华为P20购买评论

    爬虫爬取京东.淘宝.苏宁上华为P20购买评论 1.使用软件 Anaconda3 2.代码截图 三个网站代码大同小异,因此只展示一个 3.结果(部分) 京东 淘宝 苏宁 4.分析 这三个网站上的评论数据 ...

  5. 简单的python爬虫--爬取Taobao淘女郎信息

    最近在学Python的爬虫,顺便就练习了一下爬取淘宝上的淘女郎信息:手法简单,由于淘宝网站本上做了很多的防爬措施,应此效果不太好! 爬虫的入口:https://mm.taobao.com/json/r ...

  6. 八个commit让你学会爬取京东商品信息

    我发现现在不用标题党的套路还真不好吸引人,最近在做相关的事情,从而稍微总结出了一些文字.我一贯的想法吧,虽然才疏学浅,但是还是希望能帮助需要的人.博客园实在不适合这种章回体的文章.这里,我贴出正文的前 ...

  7. 利用selenium爬取京东商品信息存放到mongodb

    利用selenium爬取京东商城的商品信息思路: 1.首先进入京东的搜索页面,分析搜索页面信息可以得到路由结构 2.根据页面信息可以看到京东在搜索页面使用了懒加载,所以为了解决这个问题,使用递归.等待 ...

  8. 正则爬取京东商品信息并打包成&period;exe可执行程序。

    本文爬取内容,输入要搜索的关键字可自动爬取京东网站上相关商品的店铺名称,商品名称,价格,爬取100页(共100页) 代码如下: import requests import re # 请求头 head ...

  9. 正则爬取京东商品信息并打包成&period;exe可执行程序

    本文爬取内容,输入要搜索的关键字可自动爬取京东网站上相关商品的店铺名称,商品名称,价格,爬取100页(共100页) 代码如下: ? 1 2 3 4 5 6 7 8 9 10 11 12 13 14 1 ...

随机推荐

  1. JQM开发Tips

    1.radio Button 点击后有时候有高亮样式,有时候没有 解决方案: $("#task_form label").click(function () { $("# ...

  2. Linux 使用iftop命令查看服务器流量

    简介 iftop是类似于linux下面top的实时流量监控工具. iftop可以用来监控网卡的实时流量(可以指定网段).反向解析IP.显示端口信息等,详细的将会在后面的使用参数中说明. 安装 # yu ...

  3. struts配置文件中如何从一个package的action跳到另一个package中的某个action

    <package name="pack1" namespace="/test1" extends="struts-default"&g ...

  4. cloudCompute

    云计算使企业可以迅速对市场做出反应而且加强了企业内部的协同 人人都在用云计算的时候能够迅速迁移到云平台已经不叫优势了,反而不使用云计算成为了一种劣势

  5. eclipse的格式化规则(即format&period;xml文件)&period;

    eclipse的格式化规则(即format.xml文件) 下面是文件内容 <?xml version="1.0" encoding="UTF-8" sta ...

  6. 字符界面的贪吃蛇--链表--C&plus;&plus;

    前天看了下链表,由于平时对链表的使用不多,所以对链表的应用也没什么了解,所以想来想去,就想用链表实现一下贪吃蛇. 下面言归正传,先看效果图,再看代码,其他没有了! 图1: 图2: 代码: #inclu ...

  7. Jmeter如何把CSV文件的路径设置成一个变量,且变量的值是一个相对路径

    首先,在Jmeter中,通过User Defined Variables设置一个变量用来存储CSV文件所在文件夹的相对路径 备注: 这个相对路径前面不要加.\ 加了的话在运行的时候会报错,提示找不到那 ...

  8. wcf将一个服务同时绑定到http和tcp的写法

    服务器端:<?xml version="1.0" encoding="utf-8" ?><configuration>  <con ...

  9. 用GO把你想说的话写到比特币链上

    比特币除了币转账还有不少好玩的地方,比如把你想说的话写上去,可以当做留念.记录.或者装逼.今天用GO语言写了一个比特币交易构建.交易签名的程序. 生成的交易信息可以在比特币控制台用sendrawtra ...

  10. T25990 &lbrack;Wind Festival&rsqb;Running In The Sky

    T25990 [Wind Festival]Running In The Sky 题目背景 [Night - 20:02[Night−20:02 P.M.]P.M.] 夜空真美啊--但是--快要结束了 ...