文件名称:monet:PyTorch中用于非监督场景分解的MONet模型的实现
文件大小:12KB
文件格式:ZIP
更新时间:2024-05-26 20:57:20
Python
网络 该存储库包含DeepMind的MONet模型的实现,该模型用于PyTorch中无监督的场景分解。 该模型在Christopher P. Burgess,Loic Matthey,Nicholas Watters,Rishabh Kabra,Irina Higgins,Matt Botvinick和Alexander Lerchner的论文“ ”中提出。 与以前的模型(例如 )相似,MONet学会了在无人监督的情况下将场景分解为对象和背景。 但是,与AIR不同的是,它学习注意力遮罩以获得真实的细分,而不仅仅是边界框。 对象和背景外观由VAE建模。 样品结果 下图显示了Sprite数据集的原始版本上的结果示例。 第一行图像描绘了输入,第二行描绘了推断的分割,第三行描绘了重构。 注意力网络成功地学习了分割图像。 一个问题似乎是相同颜色的不同对象往往不会分开。 由于模型结构不会强制对
【文件预览】:
monet-master
----.gitignore(1KB)
----images()
--------sprite-results.png(3KB)
----requirements.txt(25B)
----datasets.py(4KB)
----LICENSE(1KB)
----README.md(2KB)
----config.py(2KB)
----main.py(4KB)
----model.py(7KB)