文件名称:matlab代码sqrt-BigGAN-PyTorch-TPU-Parallel:并行版本(多线程),用于使用TPU训练BigGAN
文件大小:2.48MB
文件格式:ZIP
更新时间:2024-06-12 15:50:39
系统开源
Matlab代码sqrt BigGAN-PyTorch-TPU-平行 BigGAN-PyTorch-TPU-Parallel是用于训练BigGAN的并行版本。 它成功运行在batchsize = 8和16的情况下。由于xla团队强烈要求进行分布式培训,因此我选择了其中之一。 我已经解决了许多问题,当前回购协议的培训过程进展顺利。 整个存储库仍在开发中,如果发现任何问题,欢迎您尝试并与我讨论。 拉动请求以解决一些问题将不胜感激,欢迎所有经验水平的开发人员。 此回购协议基于作者的官方非官方PyTorch BigGAN开发 --------------下面是它的原始说明-------------- 作者的官方非官方PyTorch BigGAN实现。 此仓库包含来自Andrew Brock,Jeff Donahue和Karen Simonyan的BigGAN 4-8 GPU训练的代码。 这段代码是由Andy Brock和Alex Andonian编写的。 如何使用此代码 你会需要: ,版本1.0.1 tqdm,numpy,scipy和h5py ImageNet培训集 首先,您可以选择为目标数据
【文件预览】:
BigGAN-PyTorch-TPU-Parallel-master
----.gitignore(42B)
----calculate_inception_moments.py(4KB)
----sample.py(8KB)
----.I128_inception_moments.npz.icloud(178B)
----test_diao.py(2KB)
----BigGANdeep.py(22KB)
----datasets.py(12KB)
----LICENSE(1KB)
----layers.py(17KB)
----make_hdf5.py(5KB)
----utils.py(49KB)
----sync_batchnorm()
--------replicate.py(3KB)
--------__init__.py(449B)
--------unittest.py(746B)
--------__pycache__()
--------batchnorm_reimpl.py(2KB)
--------comm.py(4KB)
--------batchnorm.py(15KB)
----scripts()
--------launch_BigGAN_bssmall.sh(1KB)
--------sample_cifar_ema.sh(426B)
--------launch_BigGAN_ch64_bs256x8.sh(638B)
--------launch_cifar_ema.sh(406B)
--------utils()
--------launch_BigGAN_bs512x4.sh(640B)
--------launch_BigGAN_bs256x8.sh(608B)
--------launch_SAGAN_bs128x2_ema.sh(535B)
--------launch_SNGAN.sh(507B)
--------sample_BigGAN_bs256x8.sh(936B)
--------launch_BigGAN_deep.sh(671B)
----README.md(13KB)
----animal_hash.py(32KB)
----imgs()
--------header_image.jpg(139KB)
--------G Singular Values.png(231KB)
--------interp_sample.jpg(790KB)
--------DeepSamples.png(160KB)
--------Losses.png(108KB)
--------D Singular Values.png(228KB)
--------IS_FID.png(36KB)
--------DogBall.png(723KB)
----.idea()
--------misc.xml(299B)
--------workspace.xml(23KB)
--------vcs.xml(180B)
--------BigGAN-PyTorch-TPU.iml(503B)
--------modules.xml(288B)
----__pycache__()
--------animal_hash.cpython-36.pyc(35KB)
--------layers.cpython-36.pyc(12KB)
--------train_fns.cpython-36.pyc(5KB)
--------losses.cpython-36.pyc(934B)
--------inception_utils.cpython-36.pyc(10KB)
--------BigGAN.cpython-36.pyc(15KB)
--------utils.cpython-36.pyc(34KB)
--------datasets.cpython-36.pyc(10KB)
----inception_utils.py(13KB)
----TFHub()
--------converter.py(17KB)
--------biggan_v1.py(12KB)
--------README.md(670B)
----BigGAN.py(19KB)
----pytorch-xla-env-setup.py(4KB)
----inception_tf13.py(5KB)
----I128_imgs.npz(14KB)
----logs()
--------BigGAN_I128_hdf5_seed0_Gch96_Dch96_bs8_nDa8_nGa8_Glr1.0e-04_Dlr4.0e-04_Gnlinplace_relu_Dnlinplace_relu_Ginitortho_Dinitortho_Gattn64_Dattn64_Gshared_hier_ema()
--------BigGAN_I128_hdf5_seed0_Gch96_Dch96_bs16_nDa8_nGa8_Glr1.0e-04_Dlr4.0e-04_Gnlinplace_relu_Dnlinplace_relu_Ginitortho_Dinitortho_Gattn64_Dattn64_Gshared_hier_ema()
--------BigGAN_I128_hdf5_seed0_Gch96_Dch96_bs1_nDa8_nGa8_Glr1.0e-04_Dlr4.0e-04_Gnlinplace_relu_Dnlinplace_relu_Ginitortho_Dinitortho_Gattn64_Dattn64_Gshared_hier_ema()
--------BigGAN_I128_hdf5_seed0_Gch96_Dch96_bs12_nDa8_nGa8_Glr1.0e-04_Dlr4.0e-04_Gnlinplace_relu_Dnlinplace_relu_Ginitortho_Dinitortho_Gattn64_Dattn64_Gshared_hier_ema()
--------BigGAN_I128_hdf5_seed0_Gch96_Dch96_bs64_nDa8_nGa8_Glr1.0e-04_Dlr4.0e-04_Gnlinplace_relu_Dnlinplace_relu_Ginitortho_Dinitortho_Gattn64_Dattn64_Gshared_hier_ema()
----train_fns.py(9KB)
----losses.py(821B)
----train.py(13KB)