来自 <http://licstar.net/archives/tag/%E8%AF%8D%E5%90%91%E9%87%8F>
机器学习相关数据集
https://en.wikipedia.org/wiki/List_of_datasets_for_machine_learning_research
Deep Learning in NLP(一)词向量和语言模型
来自 <http://licstar.net/archives/328>
理解 LSTM 网络
来自 <http://www.jianshu.com/p/9dc9f41f0b29/>
递归神经网络不可思议的有效性
来自 <http://www.csdn.net/article/2015-08-28/2825569>
递归神经网络(recursiveNN)结合自编码(Autoencode)实现句子建模
来自 <http://blog.csdn.net/qq_26609915/article/details/52119512>
最新自然语言处理(NLP)四步流程:Embed->Encode->Attend->Predict
来自 <http://geek.csdn.net/news/detail/116220>
注意力机制(Attention Mechanism)在自然语言处理中的应用
来自 <http://www.cnblogs.com/robert-dlut/p/5952032.html>
THUOCL:清华大学开放中文词库
来自 <https://mp.weixin.qq.com/s/VvS5zZiARjyxuAZsGIxN2Q>
用深度学习(CNN RNN Attention)解决大规模文本分类问题 - 综述和实践
来自 <https://zhuanlan.zhihu.com/p/25928551>
知乎“看山杯” 夺冠记
来自 <https://zhuanlan.zhihu.com/p/28923961>
理解Word2vec(Skip-gram,CBOW)
http://www.cnblogs.com/DjangoBlog/p/7903683.html
理解Fasttext
https://www.cnblogs.com/DjangoBlog/p/7903690.html
《How toGenerate a Good Word Embedding?》导读
http://licstar.net/archives/620
来自 <http://licstar.net/archives/category/%e8%87%aa%e7%84%b6%e8%af%ad%e8%a8%80%e5%a4%84%e7%90%86>