文件名称:BERTem:论文实现(ACL2019):《填补空白:关系学习的分布相似性》
文件大小:363KB
文件格式:ZIP
更新时间:2024-02-24 12:19:41
nlp relation-extraction fewrel acl2019 bert-pytorch
实现说明 主要实现文章前半部分的工作,PyTorch实现,基于的工作,PyTorch才是世界上最屌的框架,逃脱。 实现参考 代码说明 (1)主要修改: 输出表示形式: BertForSequenceClassification 输入表示形式: BertEmbeddings 输入和输出都实现了多种策略,可以结合具体的任务,找到最佳的组合。 (2)非主要实现:examples下的关于classification的文件 (3)服务部署:基于Flask,可以在本地开启一个服务。具体实现在中。 (4)代码正确参考,不提供数据集,不提供预训练模型,不提供训练后的模型(希望理解吧)。 (5)相
【文件预览】:
BERTem-master
----README.md(3KB)
----hubconf.py(723B)
----tests()
--------conftest.py(511B)
--------modeling_gpt2_test.py(16KB)
--------modeling_test.py(23KB)
--------modeling_openai_test.py(15KB)
--------tokenization_test.py(5KB)
--------tokenization_gpt2_test.py(3KB)
--------optimization_test.py(4KB)
--------tokenization_transfo_xl_test.py(3KB)
--------modeling_transfo_xl_test.py(9KB)
--------tokenization_openai_test.py(3KB)
----docs()
--------imgs()
----examples()
--------train.sh(461B)
--------tacred_run_infer.py(23KB)
--------run_swag.py(24KB)
--------run_transfo_xl.py(7KB)
--------bertology.py(17KB)
--------run_squad.py(21KB)
--------run_gpt2.py(5KB)
--------run_squad_dataset_utils.py(30KB)
--------test.sh(492B)
--------lm_finetuning()
--------run_classifier_dataset_utils.py(19KB)
--------tacred_run_classifier.py(50KB)
--------run_classifier.py(50KB)
--------run_openai_gpt.py(13KB)
--------extract_features.py(12KB)
--------sem_run_classifier.py(50KB)
----LICENSE(11KB)
----docker()
--------Dockerfile(197B)
----pytorch_pretrained_bert()
--------convert_openai_checkpoint_to_pytorch.py(3KB)
--------convert_gpt2_checkpoint_to_pytorch.py(3KB)
--------tokenization.py(18KB)
--------convert_pytorch_checkpoint_to_tf.py(4KB)
--------modeling_gpt2.py(45KB)
--------convert_transfo_xl_checkpoint_to_pytorch.py(6KB)
--------optimization.py(13KB)
--------tokenization_gpt2.py(14KB)
--------optimization_openai.py(5KB)
--------modeling_openai.py(45KB)
--------modeling_transfo_xl.py(59KB)
--------convert_tf_checkpoint_to_pytorch.py(3KB)
--------__init__.py(1KB)
--------__main__.py(4KB)
--------tokenization_transfo_xl.py(22KB)
--------file_utils.py(9KB)
--------tokenization_openai.py(14KB)
--------modeling.py(65KB)
--------modeling_transfo_xl_utilities.py(16KB)
----requirements.txt(196B)
----MANIFEST.in(16B)
----notebooks()
--------Comparing-TF-and-PT-models-MLM-NSP.ipynb(169KB)
--------Comparing-TF-and-PT-models-SQuAD.ipynb(203KB)
--------Comparing-PT-and-TF-models.ipynb(90KB)
--------Comparing-TF-and-PT-models.ipynb(61KB)
----setup.py(3KB)
----samples()
--------input.txt(52B)
--------sample_text.txt(4KB)
----hubconfs()
--------gpt_hubconf.py(8KB)
--------bert_hubconf.py(17KB)
--------gpt2_hubconf.py(7KB)
--------transformer_xl_hubconf.py(6KB)