文件名称:Self-Attention-Keras:自我关注与文本分类
文件大小:54KB
文件格式:ZIP
更新时间:2024-02-24 12:27:59
nlp self-attention NaturallanguageprocessingPython
自关注与文本分类 本仓库基于自关注机制实现文本分类。 依赖 Python 3.5 凯拉斯 数据集 IMDB影评高度分类数据集,来自IMDB的25,000条影评,被标记为正面/纵向两种评价。影评已被预先为词下标构成的序列。方便起见,单词的下标基于它在数据集中出现的频率标定,例如整数3所编码的词为数据集中第3常出现的词。 按照惯例,0不代表任何特定的词,而编码为任何未知单词。 用法 训练 $ python imdb_attention.py 比较结果 算法 训练时间(每纪元) Val准确率 Val损失 所需Epoch数 LSTM 116秒 0.8339 0.3815 2 双向LSTM
【文件预览】:
Self-Attention-Keras-master
----reuters_bidirectional_lstm.py(2KB)
----reuters_mlp.py(2KB)
----reuters_fasttext.py(0B)
----imdb_fasttext.py(5KB)
----imdb_cnn_lstm.py(2KB)
----images()
--------Zhunquelv.PNG(18KB)
--------BijiaoJieguo.PNG(19KB)
--------XunlianShijian.PNG(12KB)
----reuters_cnn.py(0B)
----imdb_bidirectional_lstm.py(1KB)
----reuters_attention.py(2KB)
----imdb_cnn.py(2KB)
----imdb_lstm.py(2KB)
----imdb_attention.py(2KB)
----LICENSE(11KB)
----README.md(1KB)
----reuters_lstm.py(2KB)
----.gitignore(18B)
----attention.py(4KB)