Transformer 论文阅读笔记-前言

时间:2024-03-22 14:04:53

Transformer可以说是深度学习领域最重要的,里程碑式的工作之一,发表于2017年的NIPS。该模型开创了自MLP(多层感知机)、CNN(卷积神经网络)和RNN(循环神经网络)之后的第四种基础模型。这项工作也成为当前AIGC盛行的最重要的基础,是Google公司对人工智能领域的卓越贡献。

Transformer论文中的所有作者都是共同一作,这种情况一般是比较少见的。但是,这篇文章中也详细介绍了每一名作者对文章所做的贡献是什么,而非只是给每个作者的贡献用几个很虚的词进行描述。反观当今学术界的共同一作挂名现象,不得不说有些论文的共同一作已经失去了原本的意义,可悲可叹。