crawlers:pyjobs工作的爬网程序提供聚合服务

时间:2024-05-19 12:12:40
【文件属性】:

文件名称:crawlers:pyjobs工作的爬网程序提供聚合服务

文件大小:220KB

文件格式:ZIP

更新时间:2024-05-19 12:12:40

Python

PyJobs爬行者 pyjobs作业发布聚合服务的爬网程序。 使用pyjobs_crawler 要在项目中使用pyjobs_crawler ,请将其安装为依赖项: pip install git+https://github.com/pyjobs/crawlers.git@master 要抓取广告并将其注入到您的系统中,请执行以下操作: # -*- coding: utf-8 -*- from pyjobs_crawlers.run import start_crawlers import os from mon_projet import MonConnecteur if __name__ == '__main__': start_crawlers(connector_class=MonConnecteur) 其中MonConnecteur是实现pyjobs_crawler


【文件预览】:
crawlers-master
----LICENCE.txt(1KB)
----.gitignore(732B)
----README.md(11KB)
----tests()
--------static()
--------functional()
--------__init__.py(62B)
----LICENSE(1KB)
----requirements.txt(427B)
----setup.py(773B)
----.travis.yml(114B)
----run_tests.py(363B)
----pyjobs_crawlers()
--------spiders()
--------bin()
--------items.py(1KB)
--------test.py(8KB)
--------pipelines.py(452B)
--------settings.py(3KB)
--------tools.py(3KB)
--------__init__.py(24B)
--------run.py(8KB)

网友评论