算法下的平等保护:新的统计和法律框架-研究论文

时间:2024-06-29 09:36:12
【文件属性】:

文件名称:算法下的平等保护:新的统计和法律框架-研究论文

文件大小:988KB

文件格式:PDF

更新时间:2024-06-29 09:36:12

algorithms discrimination

在本文中,我们提供了一个新的统计和法律框架来理解平等保护条款下预测算法的合法性和公平性。 我们首先审查有关使用受保护特征(例如种族)和受保护特征(例如犯罪历史)的关联的主要法律问题。 在预测算法中使用种族和非种族相关性分别产生种族的直接和代理效应,这可能导致种族差异,许多人认为种族差异是毫无根据的和歧视性的。 这些影响导致主流法律共识,即根据平等保护条款,在预测算法中使用种族和非种族相关性既存在问题又可能违宪。 这一主流立场也体现在实践中,所有常用的预测算法都排除了种族,许多排除了非种族相关因素,如就业和教育。在论文的第二部分,我们挑战了主流法律立场,即使用受保护的特性总是违反平等保护条款。 我们首先开发了一个统计框架,该框架准确地说明了种族的直接和代理效应如何导致算法预测相对于非少数群体而言处于不利地位。 虽然过于形式化的法律解决方案需要排除种族和所有潜在的非种族相关性,但我们表明这种类型的算法不太可能在实践中起作用,因为几乎所有的算法输入都与种族相关。 然后我们展示了两种简单的统计解决方案可以消除种族的直接和代理影响,并且即使所有输入都与种族相关,它们也是可以实现的。 我们认为,我们提出的算法坚持平等保护原则的原则,因为它们确保个人不会因受保护类别的成员身份而受到区别对待,这与常用算法形成鲜明对比,尽管排除种族,但不公平地使少数群体处于不利地位.我们通过在纽约市预审系统的背景下对我们提出的算法进行经验测试来得出结论。 我们表明,几乎所有常用算法都违反了平等保护条款背后的某些原则,包括与种族相关的变量,产生大量代理效应,使黑人相对于白人不公平地处于不利地位。 通过消除这些代理效应,我们提出的两种算法与这些常用算法相比,大大减少了被拘留的黑人被告的数量。 这些发现表明对平等保护原则进行了根本性的重新思考,因为它适用于预测算法和依赖常用算法的愚蠢行为。


网友评论