基于LSTM_Attention的中文新闻文本分类.caj

时间:2022-12-15 15:41:20
【文件属性】:
文件名称:基于LSTM_Attention的中文新闻文本分类.caj
文件大小:468KB
文件格式:CAJ
更新时间:2022-12-15 15:41:20
LSTM Attention 经典的LSTM分类模型,一种是利用LSTM最后时刻的输出作为高一级的表示,而另一种是将所有时刻的LSTM输出求平均作为高一级的表示.这两种表示都存在一定的缺陷,第一种缺失了前面的输出信息,另一种没有体现每个时刻输出信息的不同重要程度.为了解决此问题,引入 Attention 机制,对 LSTM 模型进行改进,设计了 LSTM-Attention 模型.实验结果表明: LSTM 分类模型比传统的机器学习方法分类效果更好,而引入 Attention 机制后的 LSTM 模型相比于经典的文本分类模型,分类效果也有了一定程度的提升.

网友评论