文件名称:BERT-pytorch
文件大小:35KB
文件格式:ZIP
更新时间:2024-03-28 10:26:29
Python
伯特·比托奇 Google AI的2018 BERT的Pytorch实现,带有简单注释 BERT 2018 BERT:用于语言理解的深度双向变压器的预培训论文URL: : 介绍 Google AI的BERT论文显示了在各种NLP任务(新的17个NLP任务SOTA)上的惊人结果,包括胜过SQuAD v1.1 QA任务的人类F1得分。 本文证明,通过适当的语言模型训练方法,基于Transformer(自注意)的编码器可以有效地替代先前的语言模型。 更重要的是,他们向我们展示了这种经过预先训练的语言模型可以转移到任何NLP任务中,而无需建立特定于任务的模型体系结构。 这个惊人的结果将记录在NLP历史上,我希望有关BERT的更多论文很快就会发表。 此仓库是BERT的实现。 代码非常简单,易于理解。 其中一些代码基于带 目前,该项目正在进展中。 并且代码尚未验证。 安装 pip insta
【文件预览】:
BERT-pytorch-master
----test.py(101B)
----LICENSE(11KB)
----.idea()
--------misc.xml(184B)
--------vcs.xml(180B)
--------deployment.xml(801B)
--------modules.xml(276B)
--------.gitignore(176B)
--------inspectionProfiles()
--------BERT-pytorch.iml(473B)
----requirements.txt(23B)
----setup.py(2KB)
----.gitignore(3KB)
----.circleci()
--------config.yml(2KB)
----Makefile(61B)
----bert_pytorch()
--------model()
--------__main__.py(4KB)
--------trainer()
--------dataset()
--------__init__.py(24B)
--------preprocess()
----README.md(4KB)