文件名称:bert-dst:BERT-DST
文件大小:4.26MB
文件格式:ZIP
更新时间:2024-06-11 13:17:07
Python
BERT-DST 联系人:( ) 我们论文源代码(Interspeech 2019)。 @inproceedings{chao2019bert, title={{BERT-DST}: Scalable End-to-End Dialogue State Tracking with Bidirectional Encoder Representations from Transformer}, author={Chao, Guan-Lin and Lane, Ian}, booktitle={INTERSPEECH}, year={2019} } 在Python 3.6上测试,Tensorflow == 1.13.0rc0 必需的软件包(无需安装,只需提供代码路径即可): uncased_L-12_H-768_A-12:预先训练的[BERT-Base,无大小写]模型检查点。 下载链
【文件预览】:
bert-dst-master
----.gitignore(4KB)
----storage()
--------woz_2.0.zip(1.78MB)
--------dstc2-clean.zip(2.46MB)
----train.sh(853B)
----eval_pred.sh(1KB)
----README.md(1KB)
----util.py(6KB)
----main.py(34KB)
----metric_bert_dst.py(4KB)
----dataset_sim.py(5KB)
----dataset_dstc2.py(9KB)