BERT-keras:采用预先训练的权重的BERT的Keras实现

时间:2024-02-24 09:07:28
【文件属性】:

文件名称:BERT-keras:采用预先训练的权重的BERT的Keras实现

文件大小:43KB

文件格式:ZIP

更新时间:2024-02-24 09:07:28

nlp theano tensorflow keras language-modeling

状态:存档(代码按原样提供,预计无更新) 伯特·凯拉斯 Google BERT(来自Transformers的双向编码器表示)的Keras实现和OpenAI的Transformer LM能够使用微调API加载预训练的模型。 更新:得益于 TPU支持进行推理和训练 如何使用它? # this is a pseudo code you can read an actual working example in tutorial.ipynb or the colab notebook text_encoder = MyTextEncoder ( ** my_text_encoder_params ) # you create a text encoder (sentence piece and openai's bpe are included) lm_generator = lm_generator ( text_encoder , ** lm_generator_params ) # this is essentially your data reader (single sente


【文件预览】:
BERT-keras-master
----.gitignore(1KB)
----README.md(4KB)
----.gitmodules(196B)
----tests()
--------test_bert.py(5KB)
--------test_data.py(12KB)
--------__init__.py(62B)
--------test_transformer.py(10KB)
----transformer()
--------train.py(8KB)
--------load.py(8KB)
--------model.py(4KB)
--------__init__.py(2KB)
--------embedding.py(4KB)
--------layers.py(3KB)
--------funcs.py(3KB)
----LICENSE(34KB)
----google_bert()
----__init__.py(0B)
----openai()
----data()
--------vocab.py(4KB)
--------dataset.py(7KB)
--------lm_dataset.py(11KB)
----tutorial.ipynb(13KB)

网友评论