【文件属性】:
文件名称:InfoBERT:[ICLR 2021]“ InfoBERT
文件大小:90KB
文件格式:ZIP
更新时间:2021-05-28 12:09:14
information-theory language-models bert adversarial-attacks roberta
InfoBERT:从信息理论的角度提高语言模型的鲁棒性
这是我们的ICLR 2021论文的官方代码库:
王伯欣,王硕行,于成,甘哲,贾若曦,李波,刘晶晶
用法
准备环境
下载所需的软件包
pip install -r requirements.txt
ANLI和TextFooler
要运行ANLI和TextFooler实验,请参阅在ANLI目录。
队
我们将很快上传SQuAD实验的代码。
引文
@inproceedings{
wang2021infobert,
title={InfoBERT: Improving Robustness of Language Models from An Information Theoretic Perspective},
author={Wang, Boxin and Wang, Shuohang and Cheng, Yu and Gan,
【文件预览】:
InfoBERT-master
----.gitignore(16B)
----README.md(1KB)
----ANLI()
--------run_glue.py(10KB)
--------README.md(22KB)
--------print_table.py(1KB)
--------download_glue_data.py(8KB)
--------advtraining_args.py(8KB)
--------datasets()
--------adv_trainer.py(42KB)
--------trainer.py(38KB)
--------eval_anli_local.py(13KB)
--------setup.sh(5KB)
--------models()
--------processors()
--------MI_estimators.py(11KB)
--------run_anli.py(17KB)
--------local_robust_trainer.py(70KB)
--------jutils.py(12KB)
----requirements.txt(161B)