文件名称:bert-summarization
文件大小:26KB
文件格式:ZIP
更新时间:2024-05-24 19:16:20
Python
“基于预训练的自然语言生成以进行文本汇总”的实现 论文: : 版本号 python 2.7 PyTorch:1.0.1.post2 准备包/数据集 运行: pip install -r requirements.txt以安装所需的软件包 从以下位置下载块CNN / DailyMail数据: : 运行: python news_data_reader.py创建将在我的数据加载器中使用的泡菜文件 运行模型 对我来说,该模型对我的GPU来说太大了,因此我使用了以下较小的参数进行调试。 CUDA_VISIBLE_DEVICES=3 python main.py --cuda --batch_size=2 --hop 4 --hidden_dim 100 审阅者须知: 尽管我实现了核心部分(使用BERT进行两步汇总生成),但是我没有足够的时间来实现RL部分。 第二个解码器过程非常耗时
【文件预览】:
bert-summarization-master
----.gitignore(2KB)
----requirements.txt(843B)
----model()
--------__init__.py(0B)
--------common_layer.py(24KB)
--------transformer.py(15KB)
----utils()
--------beam_omt.py(12KB)
--------__init__.py(0B)
--------beam_ptr.py(9KB)
--------config.py(4KB)
--------data.py(16KB)
----README.md(977B)
----main.py(2KB)