文件名称:为公平而歧视:设计公平及其法律框架-研究论文
文件大小:726KB
文件格式:PDF
更新时间:2024-06-29 15:14:35
discrimination fairness
随着算法越来越多地被用来对人类演员做出批判性的决定,我们越来越多地看到这些算法出现在耸人听闻的头条新闻中,因为歧视而大肆宣扬。 从事这个问题的计算机科学家有一个广泛的共识,即只有通过有意收集和有意识地使用有关人口特征(如性别、性别、种族、宗教等)的敏感信息才能避免这种歧视。 然而,实施此类算法的公司可能会警惕允许算法访问此类数据,因为他们担心会受到法律影响,因为所推广的标准是省略受保护的属性,否则称为“不知情的公平”。 本文询问根据欧盟数据保护和反歧视法,这种谨慎是否合理。 为了回答这个问题,我们介绍了一个具体案例,并分析了当算法访问敏感信息以做出更公平的预测时,欧盟法律可能如何适用。 我们审查这些措施是否构成歧视,以及针对谁,根据我们如何定义歧视的危害和我们比较的群体得出不同的结论。 发现可能会出现一些关于使用敏感信息的法律主张,我们最终得出结论,所提供的公平措施将被视为欧盟法律下的积极(或肯定)行动。 因此,适当使用敏感信息以提高算法的公平性是一种积极的行为,本身并不受欧盟法律的禁止。