文件名称:gpt-2-Pytorch:具有OpenAI的简单文本生成器gpt-2 Pytorch实现
文件大小:563KB
文件格式:ZIP
更新时间:2024-02-24 09:11:12
nlp natural-language-processing pytorch implementation text-generator
带文本生成器的GPT2-Pytorch 更好的语言模型及其含义 我们的模型称为GPT-2(是的继承者),仅经过培训即可预测40GB的互联网文本中的下一个单词。 由于我们担心该技术的恶意应用,因此我们不会发布经过训练的模型。 作为负责任公开的一项实验,我们将发布一个供研究人员进行实验的以及一份。 来自 该存储库是有关Pytorch中带有压缩代码的文本生成器的简单实现GPT-2 原始曲目是 。 您也可以阅读有关gpt-2的论文, 。 为了理解更详细的概念,我建议您阅读有关变压器模型的论文。 我在Pytorch中实现了GPT-2的良好实现, ,您可以在havingface存储库中看到更多详细的实现。 变形金刚(自我关注)论文:只 OpenAi-GPT的第一篇论文: 请参阅有关GPT-2和Paper的 快速开始 在Pytorch中下载GPT2预训练模型,该模型已经完成了face / pytorch-pretrained-BERT的制作! (感谢分享!这有助于我将tensorflow(ckpt)文件传输到Pytorch模型的问题!) $ git clone https://g
【文件预览】:
gpt-2-Pytorch-master
----GPT2()
--------encoder.py(4KB)
--------encoder.json(1018KB)
--------utils.py(2KB)
--------sample.py(2KB)
--------model.py(8KB)
--------config.py(829B)
--------vocab.bpe(446KB)
----main.py(3KB)
----LICENSE(1KB)
----requirements.txt(15B)
----GPT2_Pytorch.ipynb(7KB)
----.gitignore(52B)
----README.md(4KB)