变体自动编码器:如“自动编码变体贝叶斯” [Kingma,Welling,2014]中所述,在PyTorch中实现简单VAE的个人实现。

时间:2021-02-20 07:32:53
【文件属性】:
文件名称:变体自动编码器:如“自动编码变体贝叶斯” [Kingma,Welling,2014]中所述,在PyTorch中实现简单VAE的个人实现。
文件大小:274KB
文件格式:ZIP
更新时间:2021-02-20 07:32:53
pytorch vae variational-autoencoders Python 变体自动编码器 Kingma,DP和Welling,M.(2013)对论文“ AutoEncoding Variational Bayes”的个人实现。 该存储库的主要目的是使刚开始使用Variational Autoencoders的人们可以轻松访问本文的实现,而不必研究高度优化且难以搜索的库。 我用原始论文中给出的超参数训练了模型。 潜在维度为3,编码器和解码器的MLP仅具有400个隐藏单元的单个线性层。 增加层数和潜在空间的尺寸会得到更好的结果。 我们使用100个重要性加权样本-122.4084计算得出测试集的对数似然率。 200个历元之后的先前p(z)的样本,z_dim = 3,具有一层(400个单位)的MLP 200个时代之后的重建示例,z_dim = 3,一层(400个单位)的MLP 增加隐藏层的数量和潜在空间的尺寸,可以为我们带来更好的结果。 我考虑所有MLP都有两个分
【文件预览】:
Variational-Autoencoders-master
----MNIST_VAE.py(12KB)
----VAE.py(9KB)
----model_evaluation.py(4KB)
----LICENSE(1KB)
----.gitignore(166B)
----readme_imgs()
--------Random_samples_ex_3_12zdim.png(60KB)
--------samples_zdim3_mlp400.png(63KB)
--------originals_zdim3_mlp400.png(18KB)
--------reconstruction_zdim3_mlp400.png(65KB)
--------originals_epoch_200_example_100_12zdim.png(18KB)
--------reconstruction_epoch_200_example_100_12zdim.png(57KB)
----README.md(2KB)
----utils()
--------code_to_load_the_dataset.py(4KB)

网友评论