Disaster_response_pipeline:ML管道使用NLTK对紧急消息进行分类,并使用Flask可视化结果

时间:2024-03-27 01:55:17
【文件属性】:

文件名称:Disaster_response_pipeline:ML管道使用NLTK对紧急消息进行分类,并使用Flask可视化结果

文件大小:8.05MB

文件格式:ZIP

更新时间:2024-03-27 01:55:17

JupyterNotebook

Disaster_response_pipeline 数据科学家纳米学位计划的数据工程模块项目,使用来自数据(先前为FigureEight) 目标 在自然灾害期间,通常会有大量的压倒性信息。 该项目的目标是建立数据处理和解释管道,以加快资源分配过程。 入门 您需要安装Python,以及以下库: 麻木 大熊猫 系统 sqlalchemy的 斯克莱恩 恩特克 警告 回覆 泡菜 json 阴谋地 细绳 烧瓶 怎么跑 在项目的根目录中运行以下命令来设置数据库和模型。 运行ETL管道以清理数据并将其存储在数据库中python data/process_data.py data/disaster_messages.csv data/disaster_categories.csv data/disaster_response.db 运行训练分类器并保存python models/train_c


【文件预览】:
Disaster_response_pipeline-main
----notebooks()
--------ETL Pipeline Preparation.ipynb(146KB)
--------ML Pipeline Preparation.ipynb(97KB)
----models()
--------train_classifier.py(6KB)
--------classifier.pkl(15.34MB)
----README.md(1KB)
----screenshots()
--------message_classification.png(182KB)
--------main_page.png(131KB)
----data()
--------disaster_messages.csv(4.83MB)
--------disaster_response.db(6.11MB)
--------disaster_categories.csv(11.31MB)
--------process_data.py(3KB)
----.gitignore(2KB)
----app()
--------run.py(3KB)
--------templates()

网友评论