文件名称:iclr-2021-factored-attention
文件大小:11.9MB
文件格式:ZIP
更新时间:2024-06-19 04:11:48
JupyterNotebook
iclr-2021-factored-attention 该存储库包含用于在我们的论文重现结果的代码。 该代码完全建立在之上, 是一个用于蛋白质家族 MRF 模型的小型库。 如果您希望使用我们的 Potts 或注意力实现进行自己的探索,直接使用 Mogwai 会更容易。 如果您有任何疑问,请随时与我们联系或打开问题! 安装 克隆后,请安装 mogwai 和必要的依赖项 $ make build 更新 Mogwai 子模块 每次拉取时,请务必同时更新 Mogwai 子模块 $ git pull $ make 运行训练运行 设置好环境后,运行: python train.py --model=factored_attention --attention_head_size=32 --batch_size=128 --l2_coeff=0.001 --learning_rate=0.005
【文件预览】:
iclr-2021-factored-attention-main
----.gitignore(2KB)
----main_figs.ipynb(7.9MB)
----requirements.txt(93B)
----Makefile(264B)
----paper_figs_no_weights.ipynb(7.14MB)
----LICENSE(1KB)
----download_data.sh(586B)
----.gitmodules(82B)
----wandb-configs()
--------hparam-sweeps()
----README.md(1KB)
----sampled_pdbs.txt(7KB)
----mogwai()
----figures.ipynb(1.85MB)
----compare_wandb.py(14KB)
----fatt_transfer.py(5KB)
----randomize_value_weights.py(871B)
----launch_jobs.sh(468B)
----loggers.py(564B)
----train.py(5KB)