文件名称:naacl_transfer_learning_tutorial:在美国明尼苏达州明尼阿波利斯市举行的NAACL 2019上举办的NLP转移学习教程的代码库
文件大小:17KB
文件格式:ZIP
更新时间:2024-02-24 09:11:52
nlp naacl tutorial transfer-learning NaturallanguageprocessingPython
随附NAACL 2019教程“自然语言处理中的转移学习”的代码存储库 , , 和在6月2日于美国明尼苏达州明尼阿波利斯市举行的NAACL 2019上提供了该教程。 这是NAACL教程的,以获取更多信息。 可以在以下位置找到该教程的幻灯片: : 。 可以在以下位置找到包含该教程的所有代码的Google Colab笔记本: ://tinyurl.com/NAACLTransferColab。 也可以使用以下短网址访问当前存储库: : 抽象 经典的受监督机器学习范例是基于使用单个数据集独立地学习任务的单个预测模型。 这种方法需要大量的培训示例,并且在定义明确且狭窄的任务中表现最佳。 转移学习是指通过利用来自其他域或任务的数据来训练具有更好泛化属性的模型来扩展此方法的一组方法。 在过去的两年中,自然语言处理(NLP)领域见证了几种迁移学习方法和体系结构的出现,这些技术和体系结构在处理大量NLP任务的最新技术方面得到了显着改善。 这些改进以及这些方法的广泛可用性和易于集成性,使人联想到导致预训练词嵌入和ImageNet预训练在计算机视觉中取得成功的因素,并表明这些方法可
【文件预览】:
naacl_transfer_learning_tutorial-master
----finetuning_train.py(11KB)
----finetuning_model.py(4KB)
----utils.py(8KB)
----LICENCE(1KB)
----pretraining_model.py(5KB)
----pretraining_train.py(11KB)
----requirements.txt(109B)
----.gitignore(55B)
----README.md(5KB)