【文件属性】:
文件名称:scrapy-with-django:爬虫是由scrapy制造的,而服务器是由django制造的
文件大小:289KB
文件格式:ZIP
更新时间:2021-05-01 02:20:23
Python
CrawlerWithScrapyAndDjango
CrawlerWithScrapyAndDjango。 此履带板爬行的职位。
网站网址如下。 “ p”参数表示页面。
设置
安装要求
pip install -r requirements.txt
数据库
python manage.py migrate
开始项目
运行django和scrapyd
运行django
python manage.py runserver
奔跑
cd scrapy_app
scrapyd
发送工作要求到scrapyd。 蜘蛛被分配了spider name
curl http://localhost:6800/schedule.json -d project=default -d spider=crawler
如何使用
选择选项바란다 게시판或자유 게시판 。
单击蓝色按钮크롤링 시
【文件预览】:
scrapy-with-django-master
----static()
--------css()
--------js()
----boardCrawler()
--------__pycache__()
--------wsgi.py(401B)
--------__init__.py(0B)
--------settings.py(4KB)
--------urls.py(798B)
----main()
--------models.py(572B)
--------apps.py(83B)
--------__init__.py(0B)
--------migrations()
--------views.py(4KB)
--------admin.py(63B)
--------tests.py(60B)
--------urls.py(599B)
----requirements.txt(613B)
----manage.py(632B)
----.gitignore(1KB)
----scrapy_app()
--------scrapy.cfg(263B)
--------scrapy_app()
----readme()
--------image()
----README.md(1KB)
----template()
--------main()