文件名称:房屋租赁:可能是Scrapy:spider:和房屋租赁best的最佳实践
文件大小:1.42MB
文件格式:ZIP
更新时间:2024-02-23 02:38:21
python docker scrapy-spider scrapy scrapy-crawler
租房信息聚合爬虫 居住信息聚合爬虫是作者在租房过程中,由于不堪忍受各个租房网站的各种眼花缭乱的信息而开发的一个基于的爬虫,作者已经使用该爬虫找到合适的住所了; 为了方便同样身在异乡的朋友解决寻找住处的痛点,现引入爬虫整理并打开;目前它聚合了来自,, 等上百个城市的租房信息,并且根据作者的喘息时间和能量还在不断更新中; 将不同网站租房信息聚合起来的优点是:可以统一集中搜索感兴趣的租房信息,而不必在各个租房信息网站间来回切换搜索,还不用替换于部分网站鸡肋的搜索功能; 帮助 详细说明请看本项目的; 鼓励 如果你觉得本项目的想法很赞,或者本项目对你有所帮助,点个Star给作者一点鼓励吧^ _ ^ 贡献 如果您觉得有人租房网站的内容对您非常有用,应该被收录在这里,可以,或者您自己实现之后里提拉,帮助更多人找到合适的住所;
【文件预览】:
house-renting-master
----.travis.yml(836B)
----screenshot()
--------adding-fields.png(141KB)
--------expanding-doc.png(347KB)
--------searching-by-field.png(328KB)
--------sorting-by-fields.png(142KB)
--------searching-by-fields.png(177KB)
--------discover.png(217KB)
--------setting-index-pattern.png(148KB)
----readme.md(2KB)
----data()
--------images()
----.github()
--------FUNDING.yml(68B)
--------ISSUE_TEMPLATE()
----crawler()
--------scrapy.cfg(291B)
--------Dockerfile(200B)
--------requirements.txt(64B)
--------setup.py(293B)
--------house_renting()
----scrapyd()
--------Dockerfile(182B)
--------scrapyd.conf(492B)
----LICENSE(34KB)
----docker-compose.yml(2KB)
----.gitignore(106B)