文件名称:TextGeneration:GPT2 bert2bert
文件大小:22KB
文件格式:ZIP
更新时间:2024-04-03 12:39:02
nlg Python
自述文件 基于pytorch / transformers和pytorch_lightning 火车数据描述 json [ { " title " : " xxxx " , " body " : " xxxxx " }, { " title " : " xxxx " , " body " : " xxxxx " } ... ] GPT2 预训练模型:CKIP Lab GPT2-base 两种生成方法: 上下文校准 法线束搜索 微调 python train_script.py --model_type gpt2 --train_data data/covid_100000.json --max_len 300 --batch_size 4 --num_workers 15 --lr 3e-4 --gpus 1 --max_epochs 4 --save_to
【文件预览】:
TextGeneration-main
----train_script.py(2KB)
----rag()
--------create_db.py(7KB)
--------consolidate_rag_checkpoint.py(4KB)
--------dataset.py(2KB)
--------__init__.py(67B)
--------trainer.py(3KB)
----generate.py(4KB)
----prepare_rag.sh(751B)
----requirements.txt(140B)
----server.py(1KB)
----gpt2()
--------model.py(2KB)
--------dataset.py(1KB)
--------__init__.py(115B)
--------trainer.py(2KB)
--------example.py(11KB)
----README.md(2KB)
----train_gpt2.sh(172B)
----bert2bert()
--------model.py(2KB)
--------dataset.py(5KB)
--------__init__.py(133B)
--------trainer.py(4KB)
----data_module.py(2KB)
----train_bert2bert.sh(367B)
----train_rag.sh(340B)
----.gitignore(60B)