keras-monotonic-attention:seq2seq在喀拉拉邦的注意

时间:2024-05-14 19:46:51
【文件属性】:

文件名称:keras-monotonic-attention:seq2seq在喀拉拉邦的注意

文件大小:21KB

文件格式:ZIP

更新时间:2024-05-14 19:46:51

Python

角膜单调注意 seq2seq在喀拉拉邦的注意 AttentionDecoder类是此处的一个修改版本 主要区别: 输出层的内部嵌入 隆式单调注意(可选) 注意权重正则化(可选) 老师强迫 修复小错误,例如 简单的例子 model = Sequential () model . add ( Embedding ( INPUT_VOCABE_SIZE , INPUT_EMBEDDING_DIM )) model . add ( Bidirectional ( LSTM ( 150 , return_sequences = True ))) model . add ( AttentionDecoder ( 150 , OUTPUT_VOCABE_SIZE , embedding_dim = OUTPUT_EMBEDDING_DIM )) model . compile ( loss =


【文件预览】:
keras-monotonic-attention-master
----LICENSE(34KB)
----attention_decoder.py(22KB)
----example.py(2KB)
----README.md(3KB)
----sequential_example.py(1KB)
----position_embedding.py(2KB)

网友评论