seq2seq-attn:具有LSTM编码器解码器的序列到序列模型和注意事项

时间:2024-03-15 23:42:37
【文件属性】:

文件名称:seq2seq-attn:具有LSTM编码器解码器的序列到序列模型和注意事项

文件大小:2.51MB

文件格式:ZIP

更新时间:2024-03-15 23:42:37

Lua

注意神经网络的序列到序列学习 更新:检出的beta版本,完全支持seq2seq-attn的功能完全重写。 Seq2seq-attn将继续受支持,但是新功能和优化将集中在新代码库上。 在编码器-解码器为LSTM的情况下,以(可选)注意标准序列到序列模型的实现。 编码器可以是双向LSTM。 此外,还可以选择通过运行卷积神经网络,然后运行基于字符嵌入的用作输入)来使用字符(而不是输入单词嵌入)。 注意模型是从,Luong等。 EMNLP2015。我们将全球通用注意力模型与本文中的输入反馈方法结合使用。 输入进纸是可选的,可以关闭。 角色模型来自“ ,Kim等。 AAAI 2016年。 在基线模型之上还有很多其他选项,这主要归功于的出色。 具体来说,有一些功能可以实现: 。 Luong等人,EMNLP 2015。 Costa-Jussa和Fonollosa,ACL,2016年。 。


【文件预览】:
seq2seq-attn-master
----data()
--------src-val.txt(390KB)
--------src-val-case.txt(671KB)
--------targ-val.txt(452KB)
--------src-test-case.txt(576KB)
--------src-train-case.txt(2.05MB)
--------targ-test.txt(367KB)
--------src-test.txt(337KB)
--------src-train.txt(1.2MB)
--------targ-train.txt(1.35MB)
----evaluate.lua(817B)
----prune.lua(3KB)
----s2sa()
--------scorer.lua(104B)
--------extract_states.lua(17KB)
--------data.lua(8KB)
--------models.lua(12KB)
--------scorers()
--------plinear.lua(3KB)
--------memory.lua(3KB)
--------beam.lua(23KB)
--------model_utils.lua(3KB)
----LICENSE(1KB)
----train.lua(40KB)
----preprocess.py(24KB)
----preprocess-shards.py(14KB)
----.gitignore(1KB)
----README.md(21KB)
----convert_to_cpu.lua(762B)

网友评论