Self-Attentive-tensorflow:Tensorflow实现“结构化的自专心句子嵌入”

时间:2024-05-24 17:31:45
【文件属性】:

文件名称:Self-Attentive-tensorflow:Tensorflow实现“结构化的自专心句子嵌入”

文件大小:962KB

文件格式:ZIP

更新时间:2024-05-24 17:31:45

tensorflow attention self-attentive-rnn self-attention Python

自我专心的张量流 结构化自专心句子嵌入的Tensorflow实现 您可以从了解有关概念的更多信息 关键概念 Frobenius规范值得关注 用法 下载如下 $ tree ./data ./data └── ag_news_csv ├── classes.txt ├── readme.txt ├── test.csv ├── train.csv └── train_mini.csv 然后 $ python train.py 结果 精度0.895 可视化而无需惩罚 可视化与惩罚 待办事项清单 支持多个数据集 笔记 此实现不使用预训练的GloVe或Word2vec。


【文件预览】:
Self-Attentive-tensorflow-master
----train.py(6KB)
----reader.py(2KB)
----model.py(2KB)
----requirements.txt(385B)
----README.md(1KB)
----resources()
--------self-attentive-model.png(73KB)
--------visualize_without_penalization.png(364KB)
--------visualize_with_penalization.png(549KB)

网友评论