Extractive_Text_Summerization_Using_Bert

时间:2024-05-24 07:52:47
【文件属性】:

文件名称:Extractive_Text_Summerization_Using_Bert

文件大小:679KB

文件格式:ZIP

更新时间:2024-05-24 07:52:47

HTML

使用Flask和Docker的Extractive_Text_Summerization_Using_Bert部署 我本地主机中的模型部署 那是我大学的神经网络和深度学习(CIE 555)课程的最终项目我们已经完成了: •使用了wikihow数据集并在其中进行了许多数据预处理技术-删除停用词,删除无关的内容lemmetization,使数据适合于以预先训练的模型提供的格式。 •使用了Bert-Extractive求和器预训练模型。 •在文本摘要中使用了Rough-1,Rough-2,Rough-1将模型结果与最新技术进行了比较。 •使用Flask部署模型 有关该项目的详细信息,请参阅《 Bert提取文本摘要报告》。 那是来自模型输出的样本 模型输出


【文件预览】:
Extractive_Text_Summerization_Using_Bert-master
----app.py(945B)
----The model in my localhost.png(73KB)
----Bert Extractive Text summarizer Report.pdf(554KB)
----templates()
--------index.html(2KB)
--------predict.html(1KB)
----Dockerfile(398B)
----the model output.png(69KB)
----Procfile(21B)
----requirements.txt(363B)
----README.md(1KB)

网友评论