deep_learning_NLP:用于NLP的深度学习架构的Keras,PyTorch和NumPy实现

时间:2024-02-24 12:04:05
【文件属性】:

文件名称:deep_learning_NLP:用于NLP的深度学习架构的Keras,PyTorch和NumPy实现

文件大小:54.47MB

文件格式:ZIP

更新时间:2024-02-24 12:04:05

nlp deep-learning numpy word2vec word-embeddings

:red_heart: 适用于NLP的深度学习架构 该存储库包含一些针对NLP的深度学习架构的Keras,PyTorch和NumPy实现。 有关NLP深度学习的快速理论介绍,我建议您阅读我的。 PyTorch中的神经机器翻译(NMT) 经典seq2seq模型“基于注意力的神经机器翻译的有效方法” ( )的紧凑,功能齐全且备受好评的PyTorch实现,并支持该方法第3.1小节中介绍的三种全球注意力机制论文:(1)点,(2)常规和(3)concat,以及堆叠与非堆叠RNN编码器和解码器,以及双向与单向RNN编码器。 我们使用上的玩具英语->法语数据集进行实验,该数据集最初是从Tatoeba提取的,用于训练的


【文件预览】:
deep_learning_NLP-master
----CNN_IMDB()
--------saliency_2.pdf(72KB)
--------saliency_3.pdf(48KB)
--------imdb_main.py(11KB)
--------imdb_preprocess_new.py(4KB)
--------training.csv(19.18MB)
--------saliency_1.pdf(47KB)
--------training_labels.txt(49KB)
--------cnn_imdb.ipynb(484KB)
--------word_to_index.json(2.57MB)
--------cnn_illustration.png(146KB)
--------test_labels.txt(49KB)
--------test.csv(18.72MB)
--------new_data.zip(18.73MB)
--------saliency_0.pdf(85KB)
--------imdb_preprocess.py(5KB)
----skipgram()
--------sg_d2v_numpy.ipynb(1.15MB)
--------images()
--------preprocessing.py(3KB)
----other()
--------inverted_index_tfidf.ipynb(16KB)
----HAN()
--------CyclicalMomentum.py(3KB)
--------CyclicalLearningRate.py(5KB)
--------han_architecture_illustration_small.bmp(1.91MB)
--------preprocessing.py(28KB)
--------dnlpvis_app_illustration_new.bmp(3.35MB)
--------han_my_functions.py(7KB)
--------AttentionWithContext.py(5KB)
--------HAN_final.ipynb(415KB)
----README.md(6KB)
----NMT()
--------models()
--------visualize_results.ipynb(120KB)
--------global_summary_improved.png(183KB)
--------code()
--------requirements.txt(56B)
--------README.md(3KB)
--------data()
--------.gitignore(24B)
----CNN_MNIST()
--------mnist_cnn.py(6KB)

网友评论