原文:http://yangguang2009.github.io/2016/12/18/deeplearning/recurrent-neural-networks-for-deep-learning/
由于平时接触大都是图像处理,因此对于CNN比较熟悉,但是对于RNN(主要用于时序信号处理),却一直很不理解,也看过很多博客讲解,却一直没有弄明白,上面链接中的讲解很不错,贴一些图在这里:
如上,以前一直不理解那个环,看了上面的图就理解了。其实环代表的是在t-1时刻的状态s(t-1)再次的对y(t)的输出做出贡献。展开之后就是下面的结构,注意其中的UWV都是共用的。
LSTM讲解博客:
http://colah.github.io/posts/2015-08-Understanding-LSTMs/