文件名称:bert_extension_tf:TensorFlow中的BERT扩展
文件大小:238KB
文件格式:ZIP
更新时间:2024-04-04 06:56:50
machine-learning natural-language-processing deep-learning artificial-intelligence bert
BERT扩展 (来自变压器的双向编码器表示)是Google AI语言小组提出的一种通用的自动编码预训练方法,它在11个NLP任务(包括问题回答,自然,语言推理和情感分析)方面获得了最新的技术成果。 BERT旨在通过在所有层的左,右上下文上共同进行条件调节来预训练来自未标记文本的深层双向表示,这使它可以轻松地针对下游任务进行微调,而无需进行大量针对特定任务的体系结构修改。 该项目旨在提供基于当前BERT的扩展,并将BERT的功能带给NER和NLU等其他NLP任务。 图1:在不同任务上对BERT进行微调的图示 环境 的Python 3.6.7 Tensorflow 1.13.1 NumPy 1.13.3 数据集 是一个多任务数据集,包含3个子任务,POS标记,语法块和NER。 对于NER子任务,它包含4种命名实体:不属于前三组的人员,位置,组织和杂项名称。 (航空公司旅行信息系统)
【文件预览】:
bert_extension_tf-master
----.gitmodules(83B)
----docs()
--------_config.yml(224B)
--------bert.tasks.png(128KB)
--------bert.nlu.png(33KB)
--------bert.ner.png(32KB)
--------index.md(4KB)
----run_classifier.py(32KB)
----run_classifier.sh(2KB)
----bert()
----LICENSE(11KB)
----tool()
--------convert_token.py(1KB)
--------eval_token.py(7KB)
--------eval_sent.py(1KB)
----run_ner.sh(2KB)
----run_ner.py(33KB)
----.gitignore(1KB)
----run_nlu.sh(2KB)
----prepro()
--------prepro_conll.py(2KB)
--------prepro_atis.py(4KB)
----README.md(5KB)
----run_embed.py(20KB)
----run_nlu.py(38KB)