CodeSLAM:CodeSLAM的实现—学习密集的Visual SLAM论文的紧凑,可优化表示形式(https

时间:2024-03-29 05:04:15
【文件属性】:

文件名称:CodeSLAM:CodeSLAM的实现—学习密集的Visual SLAM论文的紧凑,可优化表示形式(https

文件大小:11KB

文件格式:ZIP

更新时间:2024-03-29 05:04:15

computer-vision deep-learning pytorch vision autoencoder

CodeSLAM CodeSLAM的PyTorch实现。 概括 它试图解决/解决的问题 真实3D感知系统中的几何图形表示。 可能带有语义标签的密集表示是高维的,不适合概率推断。 稀疏表示,可以避免这些问题,但仅捕获部分场景信息。 新方法/解决方案 新的紧凑但密集的场景几何表示,以来自单个图像的强度数据为条件,并由包含少量参数的代码生成。 每个关键帧都可以生成一个深度图,但是可以与姿势变量和重叠关键帧的代码一起对代码进行优化,以实现全局一致性。 介绍 由于不确定性的传播对于很大的*度很快变得难以处理,因此SLAM的方法分为两类: 稀疏SLAM,通过稀疏特征集表示几何 密集SLAM,它尝试检索环境的更完整描述。 自然场景的几何表现出高度的有序性,因此我们可能不需要大量的参数来表示它。 除此之外,还可以将场景分解为一组语义对象(例如椅子)以及一些内部参数(例如椅子的大小,没有腿)


【文件预览】:
CodeSLAM-master
----preprocessing.py(6KB)
----scenenet.proto(4KB)
----CodeSLAM.ipynb(1KB)
----U-Net()
--------compute_errors.py(996B)
--------Unet.py(8KB)
--------image_utils.py(2KB)
----read_protobuf.py(4KB)
----requirements.txt(97B)
----.gitignore(1KB)
----Makefile(96B)
----README.md(3KB)

网友评论