文件名称:注意就是您所需要的所有keras:变压器的Keras + TensorFlow实现:注意就是您所需要的
文件大小:1.34MB
文件格式:ZIP
更新时间:2024-02-25 18:27:38
deep-learning keras keras-tensorflow attention-is-all-you-need attention-seq2seq
注意中的Transformer模型是您所需要的:Keras实现。 变压器的Keras + TensorFlow实现:“”(Ashish Vaswani,Noam Shazeer,Niki Parmar,Jakob Uszkoreit,Llion Jones,Aidan N. Gomez,Lukasz Kaiser,Illia Polosukhin,arxiv,2017年) 用法 请参考en2de_main.py和pinyin_main.py en2de_main.py 此任务与任务相同:WMT'16多峰转换:Multi30k(de-en) 。 我们在存储库中借用了数据处理步骤0和1,然后
【文件预览】:
attention-is-all-you-need-keras-master
----dataloader.py(3KB)
----en2de_main.py(2KB)
----pinyin_main.py(2KB)
----README.md(2KB)
----transformer.py(27KB)
----data()
--------en2de.s2s.txt(3.81MB)
--------en2de.s2s.valid.txt(139KB)
--------pinyin.corpus.examples.txt(31KB)
----ljqpy.py(10KB)
----.gitignore(118B)
----rnn_s2s.py(5KB)