机器翻译汇总

时间:2023-01-24 20:31:00

斯坦福大学的NLP 机器翻译的项目 https://nlp.stanford.edu/projects/nmt/

tf中的NMT项目:https://github.com/tensorflow/nmt

最新进展 Facebook AI Research论文《Convolutional Sequence to Sequence Learning》,该文章所提出的模型(简称ConvS2S)不仅仅在翻译任务上效果显著,而且所需训练时间也很短。 https://arxiv.org/abs/1705.03122

实现:

pytorch版本:https://github.com/facebookresearch/fairseq

Google团队论文《Attention is All You Need》,将机器翻译任务水平提高了2 BLEU。翻译效果上超越了ConvS2S,而且,其模型(Transformer)所需的训练时间也比ConvS2S要更短。 https://arxiv.org/pdf/1706.03762

实现: tf版本:https://github.com/DongjunLee/transformer-tensorflow

对两篇论文的理解: https://zhuanlan.zhihu.com/p/27464080

2017年神经机器翻译(NMT)的一些重要资源汇总: https://www.zhihu.com/question/65340310/answer/229955388

 

---------------------

作者:kula147

来源:CSDN

原文:https://blog.csdn.net/kula147/article/details/79236585

版权声明:本文为博主原创文章,转载请附上博文链接!