文件名称:Hierarchical-Attention-Network:“文档分类的分层注意网络”的实现
文件大小:5.69MB
文件格式:ZIP
更新时间:2024-06-02 04:17:13
nlp rnn attention-mechanism paper-implementations JupyterNotebook
分层注意网络 我对“ ”的实现(Yang等,2016) Yelp的数据可从下载(与Yang的论文中使用的数据集相同) 下载链接: : 将数据放在名为“ data / yelp_YEAR /”的目录中(其中“ YEAR”为年份) 运行“ yelp-preprocess.ipynb”以预处理数据。 格式变为“标签\ t \ t句子1 \ t句子2 ...”。 然后运行“ word2vec.ipynb”以从训练集中训练word2vec模型。 运行“ HAN.ipynb”以训练模型。 运行“ case_study.ipynb”以运行验证集中的一些示例的可视化,包括注意力向量(句子级别和单词级别)和预测结果。 现在,我们在yelp2013测试仪上获得了约65%的准确度。 对超参数进行微调后,它可能会更好。 我们使用的超参数 时代 批量大小 GRU单位 word2vec大小 优化器 学
【文件预览】:
Hierarchical-Attention-Network-master
----parameters()
--------HAN.ckpt.data-00000-of-00001(5.73MB)
--------HAN.ckpt.index(3KB)
--------HAN.ckpt.meta(966KB)
--------checkpoint(73B)
----.gitignore(1KB)
----case2.PNG(55KB)
----model-acc.png(27KB)
----case1.PNG(46KB)
----HAN_improved.ipynb(170KB)
----README.md(2KB)
----word2vec.ipynb(62KB)
----Dataset_util.py(2KB)
----HAN.py(7KB)
----HAN.ipynb(181KB)
----model-loss.png(24KB)
----yelp-preprocess.ipynb(17KB)
----case_study.ipynb(10KB)