ALBERT:用于语言表达自我监督学习的Lite BERT-Python开发

时间:2024-06-14 06:39:31
【文件属性】:

文件名称:ALBERT:用于语言表达自我监督学习的Lite BERT-Python开发

文件大小:109KB

文件格式:ZIP

更新时间:2024-06-14 06:39:31

Python Natural Language Processing

ALBERT:用于语言表达自我监督学习的Lite BERT ALBERT ***************新2020年3月28日***************添加有关如何对GLUE数据集进行微调的colab教程。 *************** 2020年1月7日新发布*************** v2 TF-Hub模型现在应该可以在TF 1.15上使用,因为我们从图表中删除了本地Einsum op。 请参阅下面的更新的TF-Hub链接。 *************** 2019年12月30日新发布***************中国模型已发布。 我们要感谢CLUE团队提供的培训数据。 基本大型Xlarge Xxlarge ALBERT版本2


【文件预览】:
albert-master
----run_squad_v2.py(19KB)
----.gitignore(1KB)
----race_utils.py(15KB)
----optimization_test.py(2KB)
----tokenization.py(14KB)
----export_checkpoints.py(6KB)
----requirements.txt(202B)
----tokenization_test.py(5KB)
----albert_glue_fine_tuning_tutorial.ipynb(11KB)
----classifier_utils.py(35KB)
----modeling_test.py(10KB)
----export_to_tfhub.py(8KB)
----__init__.py(606B)
----CONTRIBUTING.md(1KB)
----run_classifier.py(21KB)
----LICENSE(11KB)
----run_squad_v1.py(20KB)
----optimization.py(8KB)
----run_pretraining_test.py(5KB)
----modeling.py(45KB)
----run_race.py(17KB)
----README.md(12KB)
----run_trivial_model_test.sh(553B)
----run_pretraining.py(22KB)
----fine_tuning_utils.py(3KB)
----lamb_optimizer.py(5KB)
----squad_utils.py(62KB)
----create_pretraining_data.py(23KB)
----run_glue.sh(2KB)

网友评论