文件名称:scrapy-dockerhub:[未维护] 部署、运行和监控您的 Scrapy 蜘蛛
文件大小:11KB
文件格式:ZIP
更新时间:2024-07-03 11:21:10
Python
Scrapy DockerHub 部署、运行和监控您的 Scrapy 蜘蛛。 它利用 Fabric 命令行实用程序来管理运行 Scrapy 蜘蛛的远程 Docker 容器 安装 要在你的scrapy项目中使用它,你只需要在你的项目目录中创建fabfile.py ,内容如下: from fabric.api import env env.hosts = ['my.scrapy.server.net'] env.project = 'my-project' env.projects_path = '~/scrapy/projects' env.items_path = '~/scrapy/items' env.logs_path = '~/scrapy/logs' env.jobs_path = '~/scrapy/jobs' env.files_path = '~/scrapy/fi
【文件预览】:
scrapy-dockerhub-master
----scripts()
--------dockerhub-patch-settings(532B)
----LICENSE(11KB)
----setup.py(238B)
----README.md(2KB)
----scrapy_dockerhub()
--------pprint_table.py(1KB)
--------__init__.py(0B)
--------Dockerfile.template(1KB)
--------fabfile.py(6KB)
--------extension.py(1KB)
----.gitignore(694B)