文件名称:toxic-comment-classification:Kaggle有毒评论分类挑战的代码和写作
文件大小:73KB
文件格式:ZIP
更新时间:2024-05-28 12:10:31
JupyterNotebook
Kaggle-有毒评论分类挑战 第33名解决方案 私人LB:0.9872,33 / 4551 公众LB:0.9876、45 / 4551 这是《和代码,我在4,551个团队中排名第33。 有关我的方法的更多信息,请参见我的。 我们的任务是处理多标签分类问题; 特别是,任务是将在线评论分为6类: toxic , severve_toxic , obscene , threat , insult , identity_hate 。 竞争指标是每个预测类别的单个AUC的平均值。 方法摘要: 嵌入物: 在比赛数据上本地训练的fastText嵌入 预训练嵌入(具有相似性插补): 型号(显示最佳私人成绩): CapsuleNet( 0.9860私有,0.9859公开) RNN版本1( 0.9858私有,0.9863公开) RNN版本2(0.9856私有,0.9861公开) 两层CN
【文件预览】:
toxic-comment-classification-master
----.gitignore(36B)
----code()
--------modeling()
--------embeddings()
--------prepare_toxic.sh(257B)
--------toxic()
--------preprocessing()
--------tuning()
----README.md(5KB)
----input()
--------data_files.md(20B)