文件名称:Semantic-Segmentation
文件大小:58.54MB
文件格式:ZIP
更新时间:2024-03-27 07:43:21
Python
使用完全卷积网络的语义分割 这是我作为CSE 251B(神经网络)小组项目(与Li Lingxi,Li Yejun Li,Zengwen Wen和Zhang Yunyi)一起完成的工作。 与合作伙伴的讨论使我受益匪浅,但是这里的所有代码都是由讲师给出或由我编写的。 具体来说,我创建了模型(basic_fcn.py),并编写了用于训练模型并在验证和测试集(starter.py和util.py)上对其进行评估的代码,而讲师则为我们提供了用于加载数据的所有代码。 这个项目有一个基本的全卷积神经网络,可以用于语义分割。 它使用印度驾驶数据集的一个子集来训练,验证和测试模型。 档案文件 basic_fcn.py包含完全卷积网络的类。 dataloader.py包含用于加载训练,验证和测试数据集的代码。 get_weights.py包含用于计算每个类的权重的代码。 这些权重可用于使用加权交叉熵损失训
【文件预览】:
Semantic-Segmentation-main
----latest_model.pt(62.99MB)
----utils.py(2KB)
----get_weights.py(852B)
----dataloader.py(3KB)
----TestImages()
--------test7.png(109KB)
--------test5.png(93KB)
--------test4.png(115KB)
--------test3.png(105KB)
--------test2.png(97KB)
--------test1.png(112KB)
--------test6.png(112KB)
----starter.py(5KB)
----.gitignore(2KB)
----basic_fcn.py(2KB)
----README.md(4KB)