【文件属性】:
文件名称:Guyu:用于文本生成的预训练和微调框架
文件大小:5.45MB
文件格式:ZIP
更新时间:2021-02-03 18:32:23
nlp text-generation gpt2 NaturallanguageprocessingPython
谷雨
文本生成的预训练和微调框架
“用于开放域对话生成的预训练变压器语言模型的实证研究”的骨干代码: :
@article{DBLP:journals/corr/abs-2003-04195,
author = {Piji Li},
title = {An Empirical Investigation of Pre-Trained Transformer Language Models
for Open-Domain Dialogue Generation},
journal = {CoRR},
volume = {
【文件预览】:
Guyu-master
----inference.sh(24B)
----prepare_data.sh(247B)
----optim.py(936B)
----utils.py(2KB)
----inference.py(10KB)
----train.sh(1KB)
----model()
--------README.md(268B)
----train.py(7KB)
----prepare_data.py(3KB)
----chat-bot()
--------inference_.py(1KB)
--------inference.sh(25B)
--------prepare_data.sh(141B)
--------data_.py(3KB)
--------data()
--------train.py(7KB)
--------fine_tune.sh(1KB)
----adam.py(4KB)
----LICENSE(1KB)
----wsgi.py(61B)
----deploy.sh(38B)
----label_smoothing.py(1KB)
----.gitignore(56B)
----api.py(1KB)
----toy()
--------toy.txt(894KB)
----README.md(1KB)
----transformer.py(13KB)
----biglm.py(6KB)
----data.py(4KB)