self-attentive-emb-tf:“结构化的自注意力句子嵌入”的简单Tensorflow实现(ICLR 2017)

时间:2024-05-30 14:38:53
【文件属性】:

文件名称:self-attentive-emb-tf:“结构化的自注意力句子嵌入”的简单Tensorflow实现(ICLR 2017)

文件大小:11.26MB

文件格式:ZIP

更新时间:2024-05-30 14:38:53

text-classification tensorflow attention attention-mechanism iclr2017

结构化的自我专心句子嵌入 Tensorflow实施“”(ICLR 2017)。 用法 数据 AG的新闻主题分类数据集。 可从获得csv文件(在我的)。 火车 “ ”被用作预训练的word2vec模型。 显示帮助信息: $ python train.py --help train.py: --[no]allow_soft_placement: Allow device soft device placement (default: ' true ' ) --batch_size: Batch Size (default: ' 64 ' ) (an integer) --checkpoint_every: Save model after this many steps (default: ' 100 ' ) (an integer) -


【文件预览】:
self-attentive-emb-tf-master
----eval.py(4KB)
----data()
--------train.csv(28.11MB)
--------test.csv(1.77MB)
----train.py(9KB)
----LICENSE(1KB)
----self_attention.py(4KB)
----.gitignore(37B)
----data_helpers.py(3KB)
----README.md(3KB)

网友评论