bert-chainer:“ BERT:针对语言理解的深度双向变压器的预训练”的Chainer实现

时间:2024-02-24 12:15:18
【文件属性】:

文件名称:bert-chainer:“ BERT:针对语言理解的深度双向变压器的预训练”的Chainer实现

文件大小:135KB

文件格式:ZIP

更新时间:2024-02-24 12:15:18

nlp google chainer transformer bert

谷歌AI的BERT模型的Chainer实现,并带有一个脚本来加载谷歌的预训练模型 该存储库包含库的Chainer重新实现,该存储论文雅各布·德夫林,张明伟,张建伟,李健和Kristina Toutanova的。 此实现可以为BERT加载任何预训练的TensorFlow检查点(尤其是),并提供一个转换脚本(请参见)。 在当前的实现中,我们可以 构建BertModel并从TensorFlow加载预训练的检查点 使用BERT执行句子级分类任务(在GLUE上)( run_classifier.py ) 使用BERT进行令牌级别的分类任务(在SQuAD上)( run_squad.py ) 从句子


【文件预览】:
bert-chainer-master
----tokenization.py(9KB)
----run_classifier.py(21KB)
----convert_tf_checkpoint_to_chainer.py(3KB)
----extract_features.py(12KB)
----__init__.py(615B)
----bert-tf()
--------tokenization.py(8KB)
--------test_bert_tf.py(28KB)
--------modeling_test.py(9KB)
--------run_classifier.py(23KB)
--------extract_features.py(13KB)
--------LICENSE(11KB)
--------CONTRIBUTING.md(1KB)
--------__init__.py(616B)
--------sample_text.txt(4KB)
--------optimization.py(6KB)
--------run_pretraining.py(18KB)
--------tokenization_test.py(4KB)
--------run_squad.py(39KB)
--------README.md(32KB)
--------modeling.py(37KB)
--------optimization_test.py(2KB)
--------create_pretraining_data.py(15KB)
----sample_text.txt(4KB)
----optimization.py(1KB)
----tokenization_test.py(4KB)
----run_squad.py(38KB)
----README.md(10KB)
----modeling.py(40KB)
----to_be_modified()
--------modeling_test.py(10KB)
--------run_pretraining.py(20KB)
--------optimization_test.py(2KB)
--------create_pretraining_data.py(16KB)

网友评论