RobBERT:基于荷兰RoBERTa的语言模型

时间:2024-02-24 12:22:54
【文件属性】:

文件名称:RobBERT:基于荷兰RoBERTa的语言模型

文件大小:704KB

文件格式:ZIP

更新时间:2024-02-24 12:22:54

nlp nlp-resources language-model roberta bert-model

罗伯特·伯特 RobBERT是基于荷兰国家的最先进的语言模型。 在我们的或阅读更多内容。 入门 RobBERT可以通过两种不同的方式轻松使用,即使用代码或使用 使用Huggingface变形金刚 您可以使用轻松下载RobBERT v2 。 使用以下代码下载基本模型并自己对其进行微调,或使用我们的一种经过微调的模型(在)。 from transformers import RobertaTokenizer , RobertaForSequenceClassification tokenizer = RobertaTokenizer . from_pretrained ( "pdelobe


【文件预览】:
RobBERT-master
----res()
--------robbert_logo_with_name.png(80KB)
--------gender_diff.png(262KB)
--------robbert_pos_accuracy.png(134KB)
--------robbert_logo.png(57KB)
--------dbrd.png(94KB)
----Pipfile(238B)
----tests()
--------test_convert_roberta_dict.py(2KB)
--------__init__.py(0B)
----LICENSE(1KB)
----Pipfile.lock(23KB)
----model_cards()
--------README.md(7KB)
----src()
--------evaluate_zeroshot_wordlist.py(2KB)
--------preprocess_util.py(1KB)
--------run_lm.py(34KB)
--------wordlistfiller.py(2KB)
--------preprocess_dbrd.py(2KB)
--------convert_roberta_dict.py(2KB)
--------preprocess_conll2002_ner.py(4KB)
--------split_dbrd_training.sh(386B)
--------multiprocessing_bpe_encoder.py(4KB)
--------train.py(11KB)
--------textdataset.py(3KB)
--------preprocess_lassy_ud.py(4KB)
--------preprocess_wordlist_mask.py(2KB)
--------__init__.py(1B)
--------train_diedat.sh(1KB)
--------train_config.py(797B)
--------preprocess_diedat.sh(1KB)
--------bert_masked_lm_adapter.py(2KB)
--------preprocess_diedat.py(2KB)
----requirements.txt(197B)
----examples()
--------die_vs_data_rest_api()
----.gitignore(45B)
----README.md(11KB)
----notebooks()
--------die_dat_demo.ipynb(16KB)
--------evaluate_zeroshot_wordlists_v2.ipynb(27KB)
--------demo_RobBERT_for_conll_ner.ipynb(9KB)
--------evaluate_zeroshot_wordlists.ipynb(144KB)
--------finetune_dbrd.ipynb(56KB)
--------demo_RobBERT_for_masked_LM.ipynb(8KB)

网友评论