TransformerSum:使用机器学习转换器和将抽象摘要数据集转换为提取任务的工具来执行神经摘要(抽取式和抽象式)的模型

时间:2024-05-28 09:11:12
【文件属性】:

文件名称:TransformerSum:使用机器学习转换器和将抽象摘要数据集转换为提取任务的工具来执行神经摘要(抽取式和抽象式)的模型

文件大小:5.68MB

文件格式:ZIP

更新时间:2024-05-28 09:11:12

machine-learning text-summarization summarization albert extractive-summarization

变压器总和 使用机器学习转换器和将抽象摘要数据集转换为提取任务的工具来执行神经摘要(抽取式和抽象式)的模型。 TransformerSum是一个旨在简化训练,评估和使用机器学习变压器模型的库,这些模型可以执行自动汇总。 它与紧密集成,可轻松使用各种架构和预先训练的模型。 非常强调代码的可读性和可解释性,以便初学者和专家都可以构建新组件。 提取模型类和抽象模型类均使用编写,处理PyTorch训练循环逻辑,可轻松使用高级功能,例如16位精度,多GPU训练。 TransformerSum使用 (抽取式)和 (抽象)(它是 (纸张)和longformer的组合)支持长序列(4,096至16,384个令牌)的提取和抽象汇总。 TransformerSum还包含可以在资源受限的设备上运行的模型,同时仍保持较高的准确性。 使用ROUGE度量标准可以自动评估模型,但用户可以进行人工测试。 请查阅文档以


网友评论