文件名称:nlp-tutorial:面向深度学习研究人员的自然语言处理教程
文件大小:80KB
文件格式:ZIP
更新时间:2024-02-24 08:58:26
nlp natural-language-processing tutorial tensorflow paper
教程 nlp-tutorial是针对谁正在使用Pytorch学习NLP(自然语言处理)的教程。 NLP中的大多数模型都使用少于100行的代码实现(注释或空白行除外)。 [08-14-2020]旧的TensorFlow v1代码存储在。 为了便于初学者阅读,仅支持pytorch 1.0或更高版本。 课程-(示例用途) 1.基本嵌入模型 1-1。 -预测下一个单词 论文- Colab- 1-2。 -嵌入单词和显示图 论文- Colab- 1-3。 -句子分类 论文- Colab- 2. CNN(卷积神经网络) 2-1。 二进制情感分类 论文- 3. RNN(递归神经网络) 3-1。 预测下一步 论文- Colab- 3-2。 自动完成 论文- Colab- 3-3。 预测长句中的下一个单词 Colab- 4.注意机制 4-1。 更改单词 论文- Colab- 4-2。 翻译 论文- Colab- 4-3。 二进制情感分类 Colab- 5.基于变压器的模型 5-1。 -翻译 论文- Colab- , 5-2。 分类下一个句子并预测被屏蔽
【文件预览】:
nlp-tutorial-master
----3-2.TextLSTM()
--------TextLSTM.py(2KB)
--------TextLSTM.ipynb(4KB)
----.gitignore(6B)
----5-1.Transformer()
--------Transformer(Greedy_decoder).ipynb(15KB)
--------Transformer(Greedy_decoder).py(12KB)
--------Transformer.py(11KB)
--------Transformer.ipynb(14KB)
----README.md(5KB)
----1-2.Word2Vec()
--------Word2Vec-Skipgram(Softmax).py(3KB)
--------Word2Vec-Skipgram(Softmax).ipynb(4KB)
----4-3.Bi-LSTM(Attention)()
--------Bi-LSTM(Attention).py(4KB)
--------Bi-LSTM(Attention).ipynb(6KB)
----3-3.Bi-LSTM()
--------Bi-LSTM.py(3KB)
--------Bi-LSTM.ipynb(4KB)
----.github()
--------workflows()
----5-2.BERT()
--------BERT.ipynb(15KB)
--------BERT.py(11KB)
----3-1.TextRNN()
--------TextRNN.py(3KB)
--------TextRNN.ipynb(5KB)
----LICENSE(1KB)
----1-3.FastText()
--------FastText.ipynb(56KB)
--------test.txt(17B)
--------train.txt(150B)
----CONTRIBUTING.md(448B)
----1-1.NNLM()
--------NNLM.py(3KB)
--------NNLM.ipynb(4KB)
----4-2.Seq2Seq(Attention)()
--------Seq2Seq(Attention).ipynb(7KB)
--------Seq2Seq(Attention).py(5KB)
----4-1.Seq2Seq()
--------Seq2Seq.py(4KB)
--------Seq2Seq.ipynb(6KB)
----2-1.TextCNN()
--------TextCNN.py(3KB)
--------TextCNN.ipynb(5KB)
----archive()
--------tensorflow()