文件名称:scrapekit:具有编写Web爬虫的通用功能的Python库
文件大小:34KB
文件格式:ZIP
更新时间:2024-06-12 00:57:59
Python
刮板套件 您知道整个网络都是由数据构成的吗? 你可能做到了。 Scrapekit通过简单的Python脚本帮助您获取数据。 根据,该库将处理缓存,线程和日志记录。 请参阅。 例子 from scrapekit import Scraper scraper = Scraper ( 'example' ) @ scraper . task def get_index (): url = 'http://databin.pudo.org/t/b2d9cf' doc = scraper . get ( url ). html () for row in doc . findall ( './/tr' ): yield row @ scraper . task def get_row ( row ): columns = row . findall ( './td' )
【文件预览】:
scrapekit-master
----MANIFEST.in(104B)
----DESIGN.md(2KB)
----test.py(622B)
----scrapekit()
--------util.py(425B)
--------config.py(2KB)
--------logs.py(3KB)
--------exc.py(741B)
--------http.py(4KB)
--------__init__.py(35B)
--------reporting()
--------tasks.py(6KB)
--------core.py(3KB)
--------templates()
----requirements.txt(17B)
----LICENSE(1KB)
----setup.py(1KB)
----README.md(2KB)
----docs()
--------install.rst(430B)
--------conf.py(8KB)
--------config.rst(2KB)
--------utils.rst(207B)
--------quickstart.rst(4KB)
--------index.rst(3KB)
--------Makefile(7KB)
--------api.rst(625B)
--------tasks.rst(3KB)
--------cache.rst(1KB)
----.gitignore(592B)