颜色分类leetcode-NIH-Chest-X-rays-Classification:NIH-胸部-X射线-分类

时间:2021-07-06 22:42:51
【文件属性】:
文件名称:颜色分类leetcode-NIH-Chest-X-rays-Classification:NIH-胸部-X射线-分类
文件大小:32.4MB
文件格式:ZIP
更新时间:2021-07-06 22:42:51
系统开源 颜色分类leetcode NIH-胸部-X 射线-分类设置 这个加州大学伯克利分校数据科学信息硕士 W207 最终项目是由 、 和 开发的。 目录 项目概况 该项目旨在通过使用深度神经网络架构对 NIH 胸部 X 射线数据集进行分类。 我们通过增量步骤优化我们的模型。 我们首先调整超参数,然后尝试不同的架构,最终创建我们的最终模型。 该项目背后的动机是复制或改进以下论文中列出的结果:. 该项目的工作流程基于 Chahhou Mohammed 制定的工作流程,他是 Kaggle 100 万美元 Zillow 数据集价格预测奖的获得者。 他系统地构建了一个简单的模型,并在对超参数执行网格搜索的同时逐渐增加了更多的复杂性。 在这里,我们将对 NIH 胸部 X 射线图像的 Kaggle 数据集执行相同的任务。 该数据集由 NIH 收集,包含来自 30,000 多名患者的超过 100,000 张匿名胸部 X 射线图像。 数据代表放射学报告的 NLP 分析,可能包括诊断可信度较低的区域。 作为一个简化的假设,我们假设基于数据集的大小,数据集在诊断中是准确的。 此问题的难点之一涉及数据中缺乏“诊断置
【文件预览】:
NIH-Chest-X-rays-Classification-master
----src()
--------ensemble_model.ipynb(863KB)
--------train.py(16KB)
--------reset.py(775B)
--------v3-train-simple-xray-cnn-multi-binarizer-Image-Size.ipynb(1.45MB)
--------utils.py(6KB)
--------ROCs.ipynb(6KB)
--------data_preparation.py(3KB)
--------keys()
--------v2-train-simple-xray-cnn-multi-binarizer.ipynb(1006KB)
--------attention-maps.ipynb(10KB)
--------gradient_accumulation.py(5KB)
--------train-simple-xray-cnn-multi-binarizer.ipynb(1.29MB)
--------params.py(739B)
----images()
--------adjusted_frequencies.png(23KB)
--------barely_trained_net.png(93KB)
--------all_model_validation_accuracy.png(288KB)
--------image_size_table.png(14KB)
--------image_size_comparison.png(75KB)
--------all_model_validation_accuracy.1.png(257KB)
--------tensorboard_graph_example.png(194KB)
--------all_model_validation_loss.png(232KB)
--------all_model_validation_loss.1.png(210KB)
--------all_model_tensorboard.png(151KB)
--------nn architecture comparisons.png(179KB)
--------attention_improvement.png(59KB)
--------high_confidence_diagnoses.png(604KB)
--------all_diagnoses.png(24KB)
--------simple_model_keras.png(14KB)
--------all_model_validation_accuracy.2.png(442KB)
--------paper correlation of diagnoses.png(216KB)
--------hard_vote_ensemble.png(90KB)
--------ensemble_results_table.png(25KB)
--------rgb_vs_grayscale.png(53KB)
--------table of architecture results.png(225KB)
--------attention_map.png(3.6MB)
--------mobilenet.png(173KB)
--------attention_map.1.png(2.31MB)
--------attention_map.2.png(3.33MB)
--------nvidia_tx2.png(204KB)
--------gradient_accumulation_and_learning_rate.png(13KB)
--------mobilenet_arch.png(49KB)
--------all_model_validation_loss.2.png(494KB)
--------cnn_high_level.jpeg(87KB)
--------W207_Project_Roadmap.png(52KB)
--------weighted_ensemble_roc.png(85KB)
--------resnet_block.png(18KB)
--------tx2_roc_mobilenet.png(91KB)
--------clean_categories.png(24KB)
--------optimizer_selection_original.png(59KB)
--------journal.pone.0029740.g001.png(850KB)
--------resnet_arch.png(185KB)
--------vgg_arch.png(131KB)
--------multi_tensorboard.png(130KB)
--------lenet_arch.jpg(41KB)
----.vscode()
--------launch.json(500B)
--------settings.json(52B)
----keys()
--------spyros_id_rsa.pub(401B)
--------biseda_id_rsa.pub(391B)
----tx2()
--------inference.py(6KB)
--------tx2-down.sh(50B)
--------mobilenetInferenceDF.csv(399B)
--------xray_class_weights.best.hdf5(14.46MB)
--------cl_mobilenetInferenceDF.csv(403B)
--------inference.ipynb(136KB)
--------Dockerfile.tx2_tensorflow(703B)
--------tx2-up.sh(669B)
----LICENSE(1KB)
----README.md(26KB)
----docs()
--------Wang_ChestX-ray8_Hospital-Scale_Chest_CVPR_2017_paper.pdf(1.57MB)
--------W207_Project_Roadmap.pptx(47KB)
--------W207_Project_Roadmap.png(52KB)
----Dockerfile.dev(2KB)
----.gitignore(1KB)
----setup.sh(614B)
----requirements.pip(2KB)

网友评论