文件名称:Guyu:用于文本生成的预训练和微调框架
文件大小:5.45MB
文件格式:ZIP
更新时间:2024-02-24 12:19:03
nlp text-generation gpt2 NaturallanguageprocessingPython
谷雨 文本生成的预训练和微调框架 “用于开放域对话生成的预训练变压器语言模型的实证研究”的骨干代码: : @article{DBLP:journals/corr/abs-2003-04195, author = {Piji Li}, title = {An Empirical Investigation of Pre-Trained Transformer Language Models for Open-Domain Dialogue Generation}, journal = {CoRR}, volume = {
【文件预览】:
Guyu-master
----inference.sh(24B)
----prepare_data.sh(247B)
----optim.py(936B)
----utils.py(2KB)
----inference.py(10KB)
----train.sh(1KB)
----model()
--------README.md(268B)
----train.py(7KB)
----prepare_data.py(3KB)
----chat-bot()
--------inference_.py(1KB)
--------inference.sh(25B)
--------prepare_data.sh(141B)
--------data_.py(3KB)
--------data()
--------train.py(7KB)
--------fine_tune.sh(1KB)
----adam.py(4KB)
----LICENSE(1KB)
----wsgi.py(61B)
----deploy.sh(38B)
----label_smoothing.py(1KB)
----.gitignore(56B)
----api.py(1KB)
----toy()
--------toy.txt(894KB)
----README.md(1KB)
----transformer.py(13KB)
----biglm.py(6KB)
----data.py(4KB)