文件名称:“注意就是您所需要的一切”中Transformer模型的PyTorch实现。-Python开发
文件大小:28KB
文件格式:ZIP
更新时间:2024-06-14 05:19:02
Python Deep Learning
注意:您需要的只是注意力中的Transformer模型的PyTorch实现:Pytorch实现这是“注意就是您需要中” Transformer模型的PyTorch实现(Ashish Vaswani,Noam Shazeer,Niki Parmar ,Jakob Uszkoreit,Llion Jones,Aidan N.Gomez,Lukasz Kaiser,Illia Polosukhin,arxiv,2017年)。 一种新颖的序列到序列框架利用自我关注机制,而不是卷积运算或递归结构,并在WMT 2014英译汉中实现了最先进的性能
【文件预览】:
attention-is-all-you-need-pytorch-master
----train_multi30k_de_en.sh(468B)
----learn_bpe.py(9KB)
----apply_bpe.py(9KB)
----transformer()
--------Constants.py(75B)
--------Translator.py(4KB)
--------Layers.py(2KB)
--------SubLayers.py(3KB)
--------Optim.py(1KB)
--------__init__.py(367B)
--------Modules.py(674B)
--------Models.py(7KB)
----train.py(13KB)
----translate.py(4KB)
----LICENSE(1KB)
----preprocess.py(12KB)
----requirements.txt(169B)
----.gitignore(1KB)
----README.md(4KB)