Jigsaw-Unintended-Bias-in-Toxicity-Classification-solution

时间:2024-05-01 06:00:12
【文件属性】:

文件名称:Jigsaw-Unintended-Bias-in-Toxicity-Classification-solution

文件大小:484KB

文件格式:ZIP

更新时间:2024-05-01 06:00:12

JupyterNotebook

1.业务问题: 目的是检测有毒评论并减少模型的意外偏见。 问题描述 对话AI团队(由Jigsaw和Google发起的研究)建立了毒性模型,他们发现该模型错误地学会了将频繁攻击的身份名称与毒性相关联。 因此,该模型预测,对于那些包含同性恋,黑人,*,白人,女同性恋等词语的评论,即使评论实际上没有毒性(例如,我是男同性恋者),其毒性也很高。 发生这种情况的原因是,数据集是从被认为具有高度冒犯性的单词(或身份)来源中收集的。 需要建立一个模型,该模型可以在评论中找到毒性,并最大程度地减少某些身份方面的意外偏见。 有毒的评论是冒犯性的评论,有时使某些人离开讨论(在公共论​​坛上)。 意外偏差与计划外偏差有关,因为数据是从此类来源收集的,这些来源认为某些单词(或身份)非常令人反感,因此发生了计划外偏差。 背景资料 当Conversation AI团队首次建立毒性模型时,他们发现该模型错误地


【文件预览】:
Jigsaw-Unintended-Bias-in-Toxicity-Classification-solution-master
----.gitignore(2KB)
----README.md(2KB)
----Jigsaw Unintended Bias in Toxicity Classification solution.ipynb(720KB)

网友评论