文件名称:InfoBERT:[ICLR 2021]“ InfoBERT
文件大小:90KB
文件格式:ZIP
更新时间:2024-06-17 05:55:54
information-theory language-models bert adversarial-attacks roberta
InfoBERT:从信息理论的角度提高语言模型的鲁棒性 这是我们的ICLR 2021论文的官方代码库: 王伯欣,王硕行,于成,甘哲,贾若曦,李波,刘晶晶 用法 准备环境 下载所需的软件包 pip install -r requirements.txt ANLI和TextFooler 要运行ANLI和TextFooler实验,请参阅在ANLI目录。 队 我们将很快上传SQuAD实验的代码。 引文 @inproceedings{ wang2021infobert, title={InfoBERT: Improving Robustness of Language Models from An Information Theoretic Perspective}, author={Wang, Boxin and Wang, Shuohang and Cheng, Yu and Gan,
【文件预览】:
InfoBERT-master
----.gitignore(16B)
----README.md(1KB)
----ANLI()
--------run_glue.py(10KB)
--------README.md(22KB)
--------print_table.py(1KB)
--------download_glue_data.py(8KB)
--------advtraining_args.py(8KB)
--------datasets()
--------adv_trainer.py(42KB)
--------trainer.py(38KB)
--------eval_anli_local.py(13KB)
--------setup.sh(5KB)
--------models()
--------processors()
--------MI_estimators.py(11KB)
--------run_anli.py(17KB)
--------local_robust_trainer.py(70KB)
--------jutils.py(12KB)
----requirements.txt(161B)