超大型语言模型少样本学习(GPT-3作者亲解)

时间:2024-01-10 09:55:55
【文件属性】:

文件名称:超大型语言模型少样本学习(GPT-3作者亲解)

文件大小:6.39MB

文件格式:PDF

更新时间:2024-01-10 09:55:55

GPT-3 语言模型 超大型

最近的工作表明,通过对大量文本语料库进行预训练,然后对特定任务进行微调,在许多NLP任务和基准测试方面取得了实质性进展。虽然这种方法在架构中通常与任务无关,但它仍然需要成千上万个样例的特定于任务的微调数据集。


网友评论