multitasking_transformers:使用预训练的变压器进行多任务学习

时间:2024-05-24 08:57:35
【文件属性】:

文件名称:multitasking_transformers:使用预训练的变压器进行多任务学习

文件大小:2.81MB

文件格式:ZIP

更新时间:2024-05-24 08:57:35

deep-learning bert multi-task-learning clinical-nlp Python

:clockwise_vertical_arrows: 多任务变形金刚 :clockwise_vertical_arrows: 训练可以使用同一组表示来执行多个任务的nlp模型。 当前有预训练的模型,可以完成八项临床笔记任务中的多任务。 该代码库可用于复制本文的结果。 有关详细信息,请参见“复制”部分。 安装 与安装 pip install https://s3-us-west-2.amazonaws.com/ai2-s2-scispacy/releases/v0.2.0/en_core_sci_sm-0.2.0.tar.gz pip install git+https://github.com/AndriyMulyar/multitasking_transformers 用 可用于培训,评估和文本预测。 运行脚本将自动下载一个经过预先训练的临床笔记多任务模型,通过一个未标识的临床笔记摘要运行该模型,并在浏览器中显示实体标签。 复写 请参阅目录 。 预印本 致谢 该项目的实施,开发和


网友评论