文件名称:nlp-papers:必须阅读的有关自然语言处理(NLP)的论文
文件大小:4KB
文件格式:ZIP
更新时间:2024-06-08 13:26:15
nlp natural-language-processing transformers papers language-models
必须阅读的有关自然语言处理(NLP)的论文 一般的 DistilBERT:DistilBERT,BERT的简化版本:更小,更快,更便宜,更轻 CTRL:可控发电的条件变压器语言模型 CamemBERT:美味的法语模型 ALBERT:用于语言表达自我监督学习的Lite BERT T5:使用统一的文本到文本转换器探索迁移学习的局限性 XLM-RoBERTa:大规模无监督的跨语言表示学习 MMBT:监督多模态双变压器,用于对图像和文本进行分类 FlauBERT:法语的无监督语言模型预训练 BART:对自然语言生成,翻译和理解进行序列到序列的预训练降噪 ELECTRA:对文本编码器进行预训练,将其作为区分器而不是生成器 DialoGPT:会话响应生成的大规模生成式预训练 改革者:高效变压器 Longformer:长文档转换器 GPT-3:语言模型不多见 大鸟:变形金刚更长的序列 MARGE:通过
【文件预览】:
nlp-papers-master
----LICENSE(1KB)
----README.md(9KB)