scrapymon:通过Scrapyd进行Scrapy蜘蛛管理的简单Web UI

时间:2024-05-30 14:43:28
【文件属性】:

文件名称:scrapymon:通过Scrapyd进行Scrapy蜘蛛管理的简单Web UI

文件大小:328KB

文件格式:ZIP

更新时间:2024-05-30 14:43:28

scrapy scrapyd scrapy-ui scrapyd-ui scrapy-dashboard

沙门氏菌 简单的管理界面,便于抓取。 该演示可以在使用admin来获取用户名和密码。 请注意,该演示将每40分钟重置一次,如果一段时间内没有人访问演示,则可能需要一些时间来启动演示。 特征 显示来自Scrapyd服务器的所有项目 显示每个项目的所有版本 显示每个项目中的所有蜘蛛 显示来自Scrapyd服务器的所有待处理,正在运行和已完成的作业 显示每个作业的日志 计划蜘蛛运行 取消待处理或正在运行的作业 删除项目或特定版本 支持Http基本访问身份验证 由提供服务以供生产使用 屏幕截图 入门 通过pip install scrapymon 。 由scrapymon [--host=] [--port=] [--server=

] [--auth=] 。 默认--host为0.0.0.0


【文件预览】:
scrapymon-master
----MANIFEST.in(376B)
----.env.example(137B)
----runtime.txt(13B)
----pytest.in(27B)
----.gitmodules(129B)
----nginx.conf.sigil(5KB)
----webpack.config.js(2KB)
----.codacy.yml(38B)
----.coverage(3KB)
----requirements.txt(91B)
----.codeclimate.yml(37B)
----Pipfile.lock(27KB)
----DOKKU_SCALE(16B)
----LICENSE(1KB)
----CHANGES(559B)
----Procfile(39B)
----setup.py(1011B)
----README.md(2KB)
----Pipfile(635B)
----CHECKS(19B)
----scrapymon()
--------settings.py(5KB)
--------manage.py(539B)
--------app.py(3KB)
--------__init__.py(0B)
--------helpers()
--------blueprints()
--------templates()
--------__version__.py(22B)
--------static()
----docs()
--------screenshots()
----tests()
--------flask_test_case.py(735B)
--------__init__.py(0B)
--------test_app()
--------app_test_case.py(571B)
----app.json(329B)
----.gitignore(173B)
----.buildpacks(108B)
----.coveragerc(28B)
----package-lock.json(400KB)
----package.json(1KB)

网友评论