文件名称:NLP-learing:自用
文件大小:27KB
文件格式:ZIP
更新时间:2024-05-02 15:37:30
Python
注意就是您所需要的:Pytorch实现 这是“”中的变压器模型的PyTorch实现(Ashish Vaswani,Noam Shazeer,Niki Parmar,Jakob Uszkoreit,Llion Jones,Aidan N.Gomez,Lukasz Kaiser,Illia Polosukhin,arxiv,2017年)。 一种新颖的序列到序列框架利用自我注意机制,而不是卷积运算或递归结构,在WMT 2014英德翻译任务上实现了最先进的性能。 (2017/06/12) 正式的Tensorflow实现可在以下位置找到: 。 要了解有关自我注意机制的更多信息,您可以阅读“”。 该项目现在支持使用训练有素的模型进行培训和翻译。 请注意,该项目仍在进行中。 BPE相关部件尚未经过全面测试。 如果有任何建议或错误,请随时提出问题以通知我。 :) 用法 WMT'16多式联运
【文件预览】:
NLP-learing-master
----train_multi30k_de_en.sh(468B)
----learn_bpe.py(9KB)
----apply_bpe.py(9KB)
----transformer()
--------Constants.py(75B)
--------Translator.py(4KB)
--------Layers.py(2KB)
--------SubLayers.py(3KB)
--------Optim.py(1KB)
--------__init__.py(367B)
--------Modules.py(674B)
--------Models.py(7KB)
----train.py(13KB)
----translate.py(4KB)
----LICENSE(1KB)
----preprocess.py(12KB)
----requirements.txt(169B)
----.gitignore(1KB)
----README.md(4KB)