【文件属性】:
文件名称:数据融合matlab代码-MonoDepth-FPN-PyTorch:MonoDepth-FPN-PyTorch
文件大小:233KB
文件格式:ZIP
更新时间:2021-05-22 13:18:18
系统开源
数据融合matlab代码MonoDepth-FPN-PyTorch
一个简单的端到端模型,可在PyTorch中实现深度预测的最新性能。
我们使用功能金字塔网络(FPN)骨架来从单个输入RGB图像估计深度图。
我们在NYU深度V2数据集(官方拆分)和KITTI数据集(本征拆分)上测试了模型的性能。
要求
的Python
3
Jupyter
Notebook(可视化)
火炬用PyTorch
0.3.0.post4测试
CUDA
8(如果使用CUDA)
跑步
python3
main_fpn.py
--cuda
--bs
6
要从保存的模型继续训练,请使用
python3
main_fpn.py
--cuda
--bs
6
--r
True
--checkepoch
10
要可视化重建的数据,请在vis.ipynb中运行jupyter笔记本。
数据处理
NYU深度V2数据集
包含各种室内场景,其中249个用于训练的场景和215个用于测试的场景。
我们使用官方分组进行了培训和测试。
这为数据处理提供了非常详细的演练和matlab代码。
在先前的工作之后,我们使用了官方工具箱,该工具箱使用了Le
【文件预览】:
MonoDepth-FPN-PyTorch-main
----.gitignore(50B)
----training_history.txt(38KB)
----dataset()
--------augment.py(5KB)
--------nyuv2_dataset.py(10KB)
--------training_data()
--------__init__.py(0B)
--------dataloader.py(3KB)
--------kitti_dataset.py(2KB)
--------custom_augmentation.py(2KB)
--------constants.py(27B)
----eval.py(8KB)
----main_fpn.py(60KB)
----LICENSE(1KB)
----constants.py(27B)
----results.txt(1.05MB)
----README.md(10KB)
----test.ipynb(0B)
----bash_scripts()
--------rename_files.sh(285B)
--------split_train_and_test.sh(301B)
--------remove_files.sh(1KB)
----vis.ipynb(8KB)
----training_process()
--------results.txt(3KB)
----test_model.py(3KB)
----model_fpn.py(5KB)