文件名称:Disaster-Response-Pipeline:创建了自然语言处理(NLP)机器学习管道,以根据发送者传达的需求对真实的用户紧急消息进行分类
文件大小:10.94MB
文件格式:ZIP
更新时间:2024-04-05 05:40:03
JupyterNotebook
目录 项目动机 灾害响应管道项目 该项目的目标是对灾难事件期间从图八提供的数据集中发送的合法消息进行分类。 它要求我们建立机器学习管道,以根据发送方实时传达的需求对紧急消息进行分类。 特定的机器模型是自然语言处理(NLP)模型。 该项目分为三个主要部分: 构建ETL管道以提取数据,清理数据并将其存储到SQlite数据库中。 构建ML模型以训练分类器将消息置于最准确的类别中。 运行该应用程序以实时显示模型的准确性和结果。 结果汇总 该Web应用程序能够对发送的消息进行分类,并将其置于最合适的类别中。 通过输入消息并按“分类消息”,消息将被分类为列出的所有适合其描述的类别。 指示: 数据清理 运行以下命令以执行ETL管道,该管道将数据清洗并存储在数据库中: python data/process_data.py data/disaster_messages.csv data/dis
【文件预览】:
Disaster-Response-Pipeline-master
----models()
--------ML Pipeline Preparation.ipynb(64KB)
--------train_classifier.py(6KB)
--------classifier.pkl(2.88MB)
----images()
--------Disaster1.png(29KB)
--------Disaster Gif.gif(809KB)
----data()
--------DisasterResponse.db(18.69MB)
--------disaster_categories.csv(11.31MB)
--------disaster_messages.csv(4.83MB)
--------ETL Pipeline Preparation.ipynb(55KB)
--------process_data.py(3KB)
----Procfile(21B)
----LICENSE(1KB)
----app()
--------templates()
--------run.py(4KB)
----.DS_Store(6KB)
----run.py(4KB)
----requirements.txt(1KB)
----README.md(4KB)