文件名称:BERT——2018NLP最强论文
文件大小:75KB
文件格式:DOCX
更新时间:2022-03-30 11:40:49
深度学习 NLP
申明:本资源来源于互联网,如有侵权,请联系本人或者CSDN进行删除,谢谢! 《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》中,Jacob Devlin,Ming-Wei Chang, Kenton Lee, Kristina Toutanova等人提出的一种全新的深度学习架构,该架构在11项NLP任务中全面超越人类水平。