文件名称:weiboSpider:新浪微博爬虫,用python爬取新浪微博数据
文件大小:100KB
文件格式:ZIP
更新时间:2024-02-26 05:09:14
python python3 help-wanted weibo weibospider
微博蜘蛛 本程序可以连续爬取一个或多个新浪微博用户(如,,)的数据,转换结果信息写入文件或数据库。写入信息几乎包括用户微博的所有数据,包括用户信息和微博信息两大类。因为内容太多,这里不再重复述,详细内容见。如果只需要用户信息,可以通过设置实现只爬取微博用户信息的功能。本程序需设置Cookie来获取微博访问权限,后面会讲解 。如果不想设置cookie,可以使用,同时功能类似。 爬取结果可写入文件和数据库,具体的写入文件类型如下: txt文件(默认) csv文件(默认) json文件(任选) MySQL数据库(任选) MongoDB数据库(任选) SQLite数据库(任选) 同时支持下
【文件预览】:
weiboSpider-master
----setup.py(821B)
----weibo_spider()
--------writer()
--------user.py(757B)
--------__init__.py(0B)
--------datetime_util.py(259B)
--------user_id_list.txt(118B)
--------parser()
--------config_util.py(7KB)
--------downloader()
--------__main__.py(158B)
--------logging.conf(941B)
--------spider.py(15KB)
--------weibo.py(989B)
--------config_sample.json(753B)
----.gitignore(87B)
----requirements.txt(56B)
----CONTRIBUTING.md(3KB)
----.github()
--------stale.yml(776B)
--------ISSUE_TEMPLATE()
--------workflows()
----README.md(16KB)
----tests()
--------__init__.py(0B)
--------testdata()
--------test_parser()
----docs()
--------contributors.md(2KB)
--------example.md(7KB)
--------userid.md(2KB)
--------FAQ.md(4KB)
--------automation.md(4KB)
--------settings.md(10KB)
--------cookie.md(724B)