文件名称:算法,平台和种族偏见:综合论文-研究论文
文件大小:504KB
文件格式:PDF
更新时间:2024-06-08 14:31:25
Digital Bias Digital Discrimination Algorithms
种族偏见的结果已日益被认为是可以感染所有类型的软件算法和数据集的问题。 尤其是数字平台,正在组织越来越多的社会,政治和经济生活。 本文研究并组织了当前的学术和大众媒体关于数字工具的讨论,尽管数字工具似乎是客观且无偏见的,但实际上只能再现甚至加剧当前的种族不平等。 但是,数字工具也可能是客观性和标准化的强大工具。 基于对文献的回顾,我们修改并扩展了由Danks和London(2017)引入的“类似于价值链”的模型,该模型描述了种族偏见在算法决策中的潜在位置。 该模型分为五个阶段:输入,算法运算,输出,用户和反馈。 使用此模型,我们确定了算法模型中这五个阶段可能会出现的九种独特类型的偏差:(1)训练数据偏差,(2)算法焦点偏差,(3)算法处理偏差,(4)传输上下文偏差,(5)误解性偏见,(6)自动化偏见,(7)非透明性偏见,(8)消费者偏见和(9)反馈回路偏见。 在我们的讨论中,我们注意到在线决策带来的一些潜在好处,因为它们可以追溯并可以进行分析。 算法带来了新的社会挑战,并且依赖这些算法的数字平台组织了越来越多的社会,政治和经济生活。 正式的法规,公众意识和额外的学术研究至关重要,因为算法会制定或制定决策,而算法的创建者或受其影响的人们往往没有意识到可能会影响这些决策的偏见。