文件名称:数据融合matlab代码-MonoDepth-FPN-PyTorch:MonoDepth-FPN-PyTorch
文件大小:233KB
文件格式:ZIP
更新时间:2024-06-11 07:04:58
系统开源
数据融合matlab代码MonoDepth-FPN-PyTorch 一个简单的端到端模型,可在PyTorch中实现深度预测的最新性能。 我们使用功能金字塔网络(FPN)骨架来从单个输入RGB图像估计深度图。 我们在NYU深度V2数据集(官方拆分)和KITTI数据集(本征拆分)上测试了模型的性能。 要求 的Python 3 Jupyter Notebook(可视化) 火炬用PyTorch 0.3.0.post4测试 CUDA 8(如果使用CUDA) 跑步 python3 main_fpn.py --cuda --bs 6 要从保存的模型继续训练,请使用 python3 main_fpn.py --cuda --bs 6 --r True --checkepoch 10 要可视化重建的数据,请在vis.ipynb中运行jupyter笔记本。 数据处理 NYU深度V2数据集 包含各种室内场景,其中249个用于训练的场景和215个用于测试的场景。 我们使用官方分组进行了培训和测试。 这为数据处理提供了非常详细的演练和matlab代码。 在先前的工作之后,我们使用了官方工具箱,该工具箱使用了Le
【文件预览】:
MonoDepth-FPN-PyTorch-main
----.gitignore(50B)
----training_history.txt(38KB)
----dataset()
--------augment.py(5KB)
--------nyuv2_dataset.py(10KB)
--------training_data()
--------__init__.py(0B)
--------dataloader.py(3KB)
--------kitti_dataset.py(2KB)
--------custom_augmentation.py(2KB)
--------constants.py(27B)
----eval.py(8KB)
----main_fpn.py(60KB)
----LICENSE(1KB)
----constants.py(27B)
----results.txt(1.05MB)
----README.md(10KB)
----test.ipynb(0B)
----bash_scripts()
--------rename_files.sh(285B)
--------split_train_and_test.sh(301B)
--------remove_files.sh(1KB)
----vis.ipynb(8KB)
----training_process()
--------results.txt(3KB)
----test_model.py(3KB)
----model_fpn.py(5KB)