文件名称:KR-BERT:基于KoRean的BERT预训练模型(KR-BERT),用于Tensorflow和PyTorch
文件大小:33.61MB
文件格式:ZIP
更新时间:2024-02-24 12:30:25
nlp NaturallanguageprocessingPython
基于KoRean的Bert预先培训(KR-BERT) 这是首尔国立大学计算语言实验室开发的韩语专用,小规模BERT模型的发布,其性能可比或更高,并在引用。 词汇,参数和数据 多语言BERT (谷歌) 科伯特(ETRI) 科伯特(SKT) KR-BERT字符 KR-BERT子字符 vocab大小 119,547 30,797 8,002 16,424 12,367 参数大小 167,356,416 109,973,391 92,186,880 99,265,066 96,145,233 资料大小 -- (*数据适用于104种语言) 23GB 4.7B语素 --
【文件预览】:
KR-BERT-master
----README.md(9KB)
----krbert_tensorflow()
--------tokenization.py(12KB)
--------bert_config_subchar12367.json(313B)
--------optimization.py(7KB)
--------tokenization_ranked.py(15KB)
--------vocab_char_16424.txt(101KB)
--------bert_config_char16424.json(313B)
--------models()
--------.AppleDouble()
--------run_classifier.py(30KB)
--------vocab_subchar_12367.txt(173KB)
--------data()
--------modeling.py(37KB)
----krbert_pytorch()
--------train.py(6KB)
--------evaluate.py(3KB)
--------model()
--------utils.py(4KB)
--------finetuning_config.json(124B)
--------checkpoints()
--------build_dataset.py(1009B)
--------.AppleDouble()
--------pretrained()
--------.DS_Store(8KB)
--------data()