文件名称:COSINE:这是我们的论文“带有微弱监督的微调预训练语言模型”的代码
文件大小:31.44MB
文件格式:ZIP
更新时间:2024-05-26 09:09:46
text-classification weak-supervision dataset self-training language-model
余弦 更新:我们的论文被接受发表在NAACL-HLT 2021中。 此仓库包含我们的代码,用于纸质(arXiv预印本2010.07835)。 模型框架 基准 不同数据集上的结果总结如下: 方法 新闻 IMDB 喊叫 麻省理工学院 TREC 雪佛兰 WiC(开发人员) 全面监督(基于Roberta) 91.41 94.26 97.27 88.51 96.68 79.65 70.53 通过微弱的监督进行直接微调(基于Roberta) 82.25 72.60 74.89 70.95 62.25 44.80 59.36 以前的SOTA 86.28 86.98 92.05 74.41 80.20 53.48 64.88 余弦 87.52 90.54 95.97 76.61 82.59 54.36 67.71 先前的SOTA :/